• No se han encontrado resultados

IMPLEMENTACION DE MODELOS DE RUIDO BLANCO POR MEDIO DE UN GENERADOR DE SENALES ARBITRARIAS

N/A
N/A
Protected

Academic year: 2017

Share "IMPLEMENTACION DE MODELOS DE RUIDO BLANCO POR MEDIO DE UN GENERADOR DE SENALES ARBITRARIAS"

Copied!
170
0
0

Texto completo

(1)

ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y

ELÉCTRICA

UσIDAD PRτFESIτσAL “ADτLFτ LÓPEZ MATEτS”

INGENIERÍA EN COMUNICACIONES Y ELECTRÓNICA

IMPLEMENTACIÓN DE MODELOS DE RUIDO BLANCO POR

MEDIO DE UN GENERADOR DE SEÑALES ARBITRARIAS

TESIS

QUE PARA OBTENER EL TITULO DE:

INGENIERO EN COMUNICACIONES Y ELECTRONICA

PRESENTAN:

Abraham Graniel Roman

Alfonso Jiménez Rojo

Jorge Nuñez López

ASESORES:

M. en C. Eric Gómez Gómez

M. en C. José Ernesto Rojas Lima

M. en C. Pedro Gustavo Magaña del Río

(2)
(3)

Dedicatorias

A mis padres Raquel y Armando

p

or brindarme siempre su apoyo

incondicional, por luchar por mí, por cada uno de los sacrificios que tuvieron

que hacer para que yo cumpliera mi sueño, por sus enseñanzas, su amor y

paciencia, por haber sembrado en mí el deseo de superación constante y

enseñarme a conducirme con rectitud y honradez en mi vida.

No los defraudaré y haré que siempre se sientan orgullosos de mí, de lo que

ustedes han forjado.

Queridos padres Dios los bendiga y acompañe siempre;

Gracias.

A mis hermanos:

Por siempre estar a mi lado apoyándome, brindándome

consejos y enseñanzas

;

Muchas gracias

queridos hermanos.

A Dios

, te agradezco me hayas dado vida, salud, fortaleza, bendiciones y fe

para enfrentar cada uno de los obstáculos que encontré en mi camino, así como

la oportunidad de disfrutar y compartir con mi familia y amigos estos

momentos tan felices e inigualables en mi vida.

(4)

Dedicatorias

A mis padres

Beatriz

y

Alfonzo

por

brindarme el apoyo incondicional para

llegar hasta aquí, por sus enseñanzas y

educación que me dieron, por hacer de

una

persona

productiva,

independiente y feliz.

Gracias

A mi

hermana Claudia

,

que con la

diferencia de un año, siempre ha estado

apoyándome y deseándome lo mejor, porque

ha sido y es mi primer y más querida amiga.

Gracias

A

todos mis amigos

,

han sido una parte muy importante en mi vida en cada

momento y en cada lugar, siempre creyeron en mí. Gracias

A

toda mi familia

por alentarme siempre a continuar superándome. Gracias

A los

profesores

que a lo largo de mi vida han forjado en mi a un

profesionista, Gracias.

(5)

Dedicatorias

A mis padres

Josefina

y

Ángel

por

brindarme

la oportunidad de una educación

como la que me dieron, por el apoyo

incondicional en los momento mas difíciles de

mi vida al igual de los más felices de ella, por

luchar a mi lado en esta cuesta, por su amor,

comprensión y afecto, por ser como son, por

amarme y comprenderme, por ser lo mas

importante en mi vida;

Gracias.

A

Gabriela, Nayely, José Antonio,

Felipe, Margarita, Verónica

,

que en la

recta final de mi formación académica

estuvieron y me apoyaron; Gracias

.

A

Lizbeth Abigail

,

por ser la persona que me impulsó de manera

incondicional al final de mi educación; Gracias.

A

todas las personas que creyeron en mí

y estuvieron cuando más lo

necesite; Gracias.

A todos y cada uno de los

profesores

que me formaron a lo largo de mi vida, y

a los que dejaron huella en mi formación; Gracias.

(6)

Agradecimientos

Al

INSTITUTO POLITECNICO NACIONAL y la Escuela Superior de

Ingeniería Mecánica y Eléctrica,

por haber proporcionado los medios de

nuestra formación académica, moral y profesional.

A

nuestro profesor

,

asesor y amigo

Pedro Gustavo Magaña del Río

por

formar parte de este logro con sus consejos, pláticas y enseñanzas que me

hicieron crecer como persona y como profesional.

A nuestros asesores:

M. en C. Eric Gómez Gómez

M. en C. José Ernesto Rojas Lima

A nuestros sinodales:

Ing. Francisco Hernández Rangel

Ing. Cecilio Rojas Espejo

(7)

I ple e ta ió de

modelos de ruido

blanco por medio de

un generador de

(8)

O B J E T I V O

“Integrar

experimentalmente una aplicación para la generación de

(9)

Índice

INTRODUCCIÓN XIV

ANTECEDENTES XVI

Capítulo 1: Elementos de la Teoría de la Probabilidad y Variables

Aleatorias

1.1 Introducción a la Probabilidad 2

1.1.1 Experimentos aleatorios 2

1.1.2 Espacio Muestra y Eventos 2

1.1.3 Axiomas de Probabilidad y cálculo de probabilidad de eventos 5

1.2 Variables Aleatorias 7

1.2.1 Definición y clasificación 7

1.2.2 Función de distribución 9

1.2.3 Función de densidad de probabilidad 12

1.2.4 Función de masa de probabilidad 14

1.2.5 Función de variables aleatorias 17

1.3 Promedios Estadísticos 18

1.3.1 Momento de una variable aleatoria 18

1.3.2 Esperanza 20

1.3.3 Varianza 21

(10)

1.4 Ejemplos de variables aleatorias 23

1.4.1 Variable aleatoria Uniforme 23

1.4.2 Variable aleatoria Gaussiana 26

1.4.3 Binomial 29

1.4.4 Poisson 33

Capítulo 2: Procesos aleatorios 2.1 Introducción 38

2.2 Proceso aleatorio 39

2.2.1 Definición matemática de un proceso aleatorio 40

2.3 Procesos estacionarios 42

2.4 Estadísticas de procesos aleatorios 44

2.4.1 Media 44

2.4.2 Auto correlación 45

2.4.3 Correlación 48

2.5 Procesos Ergódicos 49

2.6 Trasmisión de un proceso aleatorio a través de un filtro lineal invariante con el tiempo 52

2.7 Densidad Espectral de Potencia 55

(11)

Capítulo 3: Tipos de ruido y técnicas para generar números aleatorios

3.1 Ruido en los sistemas de comunicaciones 59

3.1.1 Ruido de Disparo 59

3.1.2 Ruido Térmico 61

3.1.3 Ruido Blanco 65

3.2 Generación de números aleatorios 67

3.2.1 Propiedades de los números aleatorios 67

3.2.2 Generación de números pseudo-aleatorios 68

3.2.3 Técnicas de generación de números aleatorios 70

3.2.4 Generación de variables aleatorias 73

3.2.5 Transformación directa para la distribución normal y lognormal 76

3.2.6 Histogramas 78

Capítulo 4: Realización Práctica 4.1 Generador de señales 81

4.1.1 Formas de onda 85

4.1.2 Software 88

4.2 Interacción con el software y el generador 89

4.2.1 Generación de ondas arbitrarias 89

4.2.2 Localidades de memoria 95

4.2.3 Generación de archivos y cabeceras 98

4.2.4 Generación de señales a través de los archivos “.txt y .csv” 102

4.3 Análisis experimental del ruido del generador 107

(12)

4.3.2 Pruebas estadísticas 110

4.4 Generación de Ruido Blanco Gaussiano 113

4.4.1 Generación del ruido por medio del MATLAB e intercalación 114

4.4.2 Generación de ruido por medio de una interfaz gráfica (MATLAB) 119

4.4.3 Interfaz Gráfica, generación de archivo “.txt ” de autocorrelación y ruido 123

4.5 Resultados de la interfaz Gráfica 127

Conclusiones 137

Anexos Anexo 1 Hoja de especificaciones del generador DG2041A 139

Anexo 2 Código de programación en MATLAB 149

Glosario 151

(13)
(14)

INTRODUCCIÓN

El ruido se define como una señal ajena que está presente en un sistema, en el ámbito de las comunicaciones es de gran interés analizarlo y si es posible reducirlo, con lo cual se obtiene un mejor desempeño y una mayor confiabilidad en los sistemas de comunicaciones.

Esta señal no deseada se puede generar por diversas causas, como pueden ser: los componentes electrónicos de los propios sistemas, el hombre e incluso algunas causas propias de la naturaleza. La señal puede volver erróneos y no confiables los resultados que se esperan de un determinado sistema, si es excesivo, el ruido, provoca una comunicación nada confiable, lo que puede desencadenar que se considerare al sistema como no funcional, no confiable o simplemente no operable.

El ruido es una señal aleatoria, es decir que no se sabe el valor próximo que tomará, aunque se hacen muchas aproximaciones y simulaciones de éste, aun es imposible saber su valor siguiente. El ruido es un parámetro muy importante y de gran relevancia que se debe de tomar en cuenta para el diseño, la fabricación, la implementación y el análisis de un determinado sistema de comunicaciones.

Al estudiar este fenómeno se ha comprobado que se considera como inherente e impredecible (aleatorio). Debido a que es imposible eliminarlo, los sistemas han ido mejorando, lo único que ha conseguido es reducirlo, esta reducción se realiza por medio de filtros, transmisores y receptores que cuentan con componentes de mayor calidad que contribuyen a tener una mejor calidad de la señal.

Por lo anterior, es interesante y muy conveniente poder tener generadores de ruido en las carreras especializadas en comunicaciones, con lo cual se pueden realizar pruebas modificando los parámetros y haciendo interaccionar con los diferentes sistemas disponibles en los laboratorios; Al poder modificar ciertos parámetros y lograr que los sistemas se comporten lo más cercano a lo que uno desea, se obtienen múltiples beneficios, como el aprovechamiento, la comprensión y el aprendizaje en general es mucho mayor y de mejor calidad.

(15)
(16)

ANTECEDENTES

Las instituciones de educación superior en las universidades públicas de nuestro país se caracterizan por la alta dependencia de los presupuestos para el equipamiento necesario de los laboratorios existentes, más aun tratándose de alta especialización técnica, por lo que es sumamente común que se utilicen al máximo los recursos existentes para la impartición práctica de las materias que en los planes de estudio que así lo indiquen.

Adicionalmente a los conocimientos teóricos requeridos para la ejecución de las prácticas, se debe tener consistencia con la capacidad de los equipos que se utilizarán. Debido a esta importancia surge la necesidad de hacer un reconocimiento de los equipos con los que cuenta el laboratorio de comunicaciones de la Escuela Superior de Ingeniería Mecánica y Eléctrica unidad Zacatenco del Instituto Politécnico Nacional.

En dicho reconocimiento, existen aplicaciones y herramientas que en ocasiones se desconocen y que en realidad son de gran importancia para comprender, facilitar y desarrollar prácticas que permitan reforzar e incluso ampliar los conocimientos teóricos adquiridos previamente en las aulas de estudio.

Sin embargo, dentro del reconocimiento hay algunas limitantes físicas y lógicas que estos equipos pueden llegar tener, estas limitantes permiten hacer especulaciones y abren un panorama distinto sobre los experimentos y prácticas que se realizan, incluso llevan a pensar “¿qué pasaría si hiciera…..?” ó “¿qué pasaría si tuviera….?” Debido a esto, se ha despertado un gran interés en diversos integrantes de la institución tal es el caso de los jefes de laboratorio, profesores, técnicos auxiliares y alumnos por contribuir al mejor aprovechamiento y a extender la funcionalidad de los equipos existentes en las instalaciones de los laboratorios.

(17)

C

APÍTULO 1

|

“Elementos

de la teoría de la

(18)

1.1 Introducción a la Probabilidad

En la teoría de las comunicaciones encontramos muy seguido la palabra aleatorio,

que tiene como significado impredecible. Por tal motivo es muy importante su análisis en las comunicaciones, debido a que el mensaje no se conoce de antemano o lo que es lo mismo no es determinístico. Si el receptor, en un sistema de comunicaciones, tuviera la certeza de lo que se le envía, no habría necesidad de la comunicación.

Entonces, los mensajes que se envían desde el transmisor, son mensajes aleatorios, además, la señal transmitida siempre va acompañada por ruido que introduce el sistema, este ruido son perturbaciones impredecibles. Basándose en análisis y experimentación se pueden encontrar ciertas regularidades en los procesos aleatorios que permitan describirlos de una manera probabilística, con esta herramienta seremos capaces de analizar el efecto del ruido en los sistemas de comunicaciones y con ello la calidad del mensaje que el receptor recibe.

1.1.1 Experimentos aleatorios

En probabilidad, cualquier proceso de observación es referido como experimento. El

resultado de una observación se denomina salidas del experimento. Un experimento

es llamado experimento aleatorio si sus salidas no pueden ser predecibles. Algunos

ejemplos que se presentan de manera común:

Por mencionar algunos ejemplos tenemos el lanzamiento de un dado, los sorteos, urnas, etc. Donde en cada uno de estos influyen distintos factores que repercuten directamente en el resultado (si el dado tiene imperfecciones, si los sorteos se realizan de manera legal, etc.).

1.1.2 Espacio Muestra y eventos

El conjunto de todas las posibles resultados de un experimento aleatorio es llamado

espacio muestra S. Un punto en S es llamado punto muestra. Cada resultado de un

(19)

 Espacio muestra discreto: Se dice que un espacio muestral, es discreto si su resultado puede ponerse en una relación uno a uno con el conjunto de los enteros positivos, en otras palabras es un suceso finito o infinito numerable, es decir acotado, ejemplo: El sacar una carta de una baraja de 52 cartas.

 Espacio muestra continuo: Se dice que un espacio muestral, es continuo sí sus resultados son un intervalo de números reales, en otras palabras son espacios donde el número de sucesos son infinitos e incontables, ejemplo: El clima, un temblor, terremotos, etc.

Definamos un conjunto A que puede ser llamado subconjunto de B, denotado por A B si todos los elementos de A son también elementos de B (Fig.1.1.1). Cualquier

subconjunto del espacio muestra S es llamado evento. Los miembros de este

conjunto tienen una característica común.

Fig.1.1.1 Conjunto A que es subconjunto de B donde todos los elementos del conjunto A pertenecen de igual manera al conjunto B

Por características comunes debe entenderse que únicamente un grupo de resultados en particular satisface la característica. Se dice que ha ocurrido un evento si los resultados del experimento aleatorio incluyen a algunos de los que definen al evento. En este contexto, el espacio muestral, evento en sí mismo, puede entenderse como un evento seguro, puesto que se tiene un 100% de certidumbre de que ocurriera un resultado del espacio muestral cuando el experimento se lleva a cabo.

Para completar se dan las siguientes definiciones.

1.- El evento que contiene a ningún resultado del espacio muestral recibe el nombre de evento nulo o vacío.

(20)

2.- El evento formado por todos los posibles resultados en E1 o E2 o en ambos, recibe el nombre de la unión de E1 y E2 y se denota por . Ejemplo Fig. 1.1.2 dónde:

Fig. 1.1.2 Conjunto A que equivale al conjunto que tiene unión al conjunto B que corresponde al conjunto

3.- El evento formado por todos los resultados comunes tanto E1 como a E2 recibe el nombre de intersección de E1 y E2 y se denota por . Ejemplo Fig. 1.1.3 dónde:

(21)

4.- Se dice que los eventos E1 y E2 son mutuamente excluyentes o disjuntos si no tienen resultados en común; en otras palabras , dónde:

5.- Si cualquier resultado de E2 también es un resultado de E1, se dice que el evento E2 está contenido en E1, y denota por

6.- El complemento de un evento E con respecto al espacio muestral S, es aquel que

tiene a todos los resultados de S que no se encontraba en E, y se denota por ̅

̅ ̅

Dónde

̅

1.1.3 Axiomas de Probabilidad y cálculo de probabilidad de eventos

Al realizar una asignación de números reales a los eventos definidos en S se le

conoce como la probabilidad.

En la definición de axioma, la probabilidad de del evento E es un número real

asignado a E que satisface los siguientes tres axiomas:

Axioma 1:

(22)

En el anterior axioma lo que se busca es que se trabaje con números no negativos

Axioma 2:

1.2

Este axioma reconoce que el propio espacio muestra es un suceso, y dado que es un suceso que contiene todos, este debería tener la probabilidad más alta posible, en este caso la unidad, por ello S se conoce como el suceso o evento seguro.

Axioma 3:

P ( ) = P ( ) + P ( ) si = 1.3

Recordar que

El axioma establece como la probabilidad del suceso “definido” como la unión de

cualquier número de sucesos mutuamente excluyentes es igual a la suma de la probabilidad de cada suceso.

La razón de estos tres axiomas se convierte en aparente cuando, por ejemplo, se recuerda la interpretación de la probabilidad como una frecuencia relativa, es decir, la probabilidad de un evento refleja la proporción de veces en que ocurrirá cuando el experimento se repite, esta se obtiene dividiendo la frecuencia absoluta (es el número de veces que aparece un valor en el estudio) del evento o suceso, entre el número de veces que se realizó el experimento.

La frecuencia relativa se puede definir a través de un límite donde el número de sucesos totales tiende a infinito, donde este límite evalúa el número de ocasiones que se ha presentado un evento particular sobre el número total de eventos

(23)

Donde:

nA =Número de eventos particulares

n= Número de eventos totales

Un ejemplo de frecuencia relativa:

Se lanza un dado 50 veces, en el experimento el número 5 sale 8 veces, calcular la frecuencia relativa de dicho evento. Frecuencia Relativa = 8/50=0.16

Donde 8 es número de veces que ocurre el suceso y el 50 es el número de veces que se repite el experimento.

Los axiomas también son evidentes para la interpretación subjetiva de la probabilidad, dado que para este cualquier grado de creencia se convierte en una proporción. De ahí que la probabilidad exhiban las características de las proporciones, en las que la probabilidad es un número entero entre cero y uno, y dado que es forzoso que ocurra un resultado cuando se lleva a efecto un experimento, la probabilidad de S es uno.

1.2 Variables Aleatorias

1.2.1 Definición y clasificación

Considere un experimento aleatorio con espacio muestra S. Una Variable aleatoria X(λ) es una función que asigna un número real llamado valor de X(λ) a cada punto muestra λ de S. Usamos la letra X para esta función en vez de X(λ) y usamos v.a.

para denotar la variable aleatoria. Ejemplo: Fig. 1.2.1

(24)

Se dice que X es aleatoria porque involucra la probabilidad de los resultados del espacio muestral, y X es una función definida sobre el espacio muestral, de manera que trasforma todos los posibles resultados del espacio muestral en cantidades numéricas.

Esta variable aleatoria la podemos considerar como una función que aplica para todos los elementos del espacio muestral S, a puntos del eje real o solo para

algunas partes de él.

El espacio muestra S es llamado el dominio de la v.a. X, y la colección de todos los

números es llamado el rango de la v.a. X. Nótese que dos o más puntos muestra

diferentes pueden dar el mismo valor de X (λ) (Fig. 1.2.2) pero dos diferentes números en el rango no pueden ser asignados a el mismo punto muestra (Fig.1.2.3).

Fig. 1.2.2. Dos puntos muestra en el mismo valor de “x”

Fig. 1.2.3. Un punto muestra no se presenta en dos valores de “x”

Si X puede tomar solo un número contable de valores distintos, entonces X es

llamado variable aleatoria discreta, sin embargo un espacio muestral puede ser

discreto, continuo, o incluso una mezcla de puntos discretos y continuos.

(25)

Si X puede asumir cualquier valor dentro de uno o más intervalos del eje real,

entonces X es llamada variable aleatoria continua. El número de llamadas telefónicas

que llegan a una oficina en un tiempo finito es un ejemplo de una variable aleatoria discreta, y el tiempo exacto en que llega la llamada es un ejemplo de una variable aleatoria continua.

1.2.2 Función de distribución acumulativa (continuo y discreto)

Para el caso continuo, al considerar los valores de una variable aleatoria es posible desarrollar una función matemática que asigne una probabilidad a cada realización x de la variable aleatoria X. Esta función recibe el nombre de función de probabilidad de la variable aleatoria X. El término más general, distribución de probabilidad, se refiere a la colección de valores de la variable aleatoria y a la distribución de probabilidad entre estos. La función de distribución [o función de distribución acumulativa de X es la función definida por:

1.5

La función de distribución es igual a la probabilidad de que una variable aleatoria discreta X sea menor o igual a un valor x, donde

Algunas propiedades específicas de la función de distribución son las siguientes:

Cuando el límite de la función de distribución tiende al infinito negativo tiene un valor cero

(26)

Cuando el límite de la función de distribución tiende al infinito positivo tiene un valor uno

1.5b La función de distribución depende directamente de la variable aleatoria, si una variable aleatoria adquiere un valor mayor a otra variable aleatoria, su función de distribución también será mayor

1.5c

Para representar estas propiedades observar la siguiente gráfica (Fig.1.2.4)

Fig1.2.4. Propiedades de la función de distribución

De la ecuación 1.5 podemos calcular otras probabilidades

1.6

(27)

La función de distribución acumulativa de una v.a. continua X, la cual nos ayuda a conocer la función de densidad de probabilidad puede ser obtenida por la siguiente expresión:

- 1.8

Donde es una variable aleatoria auxiliar y donde ≤

En la siguiente gráfica (Fig. 1.2.5) se puede observar la expresión gráfica de la ecuación 1.8

(28)

Para el caso discreto la función de distribución acumulativa de una v.a. discreta X puede ser ejemplificada por la figura 1.2.6

Figura 1.2.6. La función de distribución acumulativa de una v.a. discreta

1.2.3 Función de densidad de probabilidad

La distribución de probabilidad de una variable aleatoria continua X está caracterizada por una función que recibe el nombre de función de densidad de probabilidad. Esta función no es la misma función de probabilidad que para el caso discreto.

La probabilidad de que una variable aleatoria continua X tome un valor específico x es cero.

(29)

Es por esto que la función de densidad de probabilidad sirve como medio para determinar la probabilidad de un intervalo

P ( ) 1.9a

La función de densidad de probabilidad se define como la derivada de la función de distribución (Ecuación 1.8);

(x)=

1.10 Las propiedades de (x):

La función de densidad de probabilidad no es negativa

1.11

La integración de todos los valores de la función de densidad de probabilidad da como resultado la unidad

1.12

Se puede evaluar la función en un cierto intervalo con una integración de dicho intervalo

(30)

En la siguiente gráfica se ilustran las propiedades de la función de densidad de probabilidad (Fig. 1.2.7).

Fig. 1.2.7 Propiedades de la función de densidad de probabilidad

1.2.4 Función de masa de probabilidad

La distribución de probabilidad o función de masa de probabilidad (fmp) de una variable discreta para cada número x se puede definir como:

1.14

(31)

Para cada valor posible x; de la variable aleatoria, la función masa de probabilidad especifica la probabilidad de observar dicho valor cuando se realiza el experimento. Cualquier función masa de probabilidad requiere las siguientes condiciones:

1.- La probabilidad es mayor acero:

2.- La suma de todas las posibles da como resultado uno:

Ejemplo: Considere un grupo de cinco donadores de sangre potenciales, a, b, c, d y e, de los cuales solo a y b tienen sangre tipo O+. Se determinará en orden aleatorio el tipo de sangre con cinco muestras, una de cada individuo hasta que se identifique un individuo O+. Sea la variable aleatoria Y= el número de exámenes de sangre para identificar un individuo P+.

Entonces la función masa de probabilidad de Y es:

|

( ) ( ) ( )

( ) ( ) ( )

(32)

Tabulada la función de masa de probabilidad es:

Y 1 2 3 4

P(y) 0.4 0.3 0.2 0.1

Tabla 1 Valores de la variable aleatoria Y y sus probabilidades

Donde cualquier valor de Y que no aparece en la tabla 1 recibe cero de probabilidad.

La figura 1.2.7 muestra una gráfica lineal de la función de masa de probabilidad.

(33)

1.2.5 Función de variables aleatorias

Sea X una variable aleatoria de la que conocemos su distribución de probabilidad.

Nos interesa estudiar una función:

1.15

Dependiendo del tipo de variable aleatoria que sea X, así es Y. Si X es discreta, Y es

discreta. Si X es continua, Y puede ser discreta o continua.

Se puede expresar la función de distribución de la v.a .

Se busca determinar la densidad de en términos de la densidad de x, para

ello se utilizara el siguiente teorema fundamental:

Para encontrar una para una “y” especifica, se resuelve la ecuación

Denotando las raíces reales para

1.16

Se puede observar que

| | | | 1.17 Donde

(34)

1.3 Promedios Estadísticos

1.3.1 Momentos de una variable aleatoria

Los momentos de una variable aleatoria X son los valores esperados de ciertas

funciones de X.

Esto forma una colección de medidas descriptivas que pueden emplearse para caracterizar la distribución de probabilidad de X y especificarlas si todos los

momentos de X son conocidos. A pesar de que los momentos de X pueden definirse

alrededor de cualquier punto de referencia, generalmente se definen alrededor del cero o del valor esperado de X.

Definición 1: Sea X una variable aleatoria. El r-ésimo momento de X alrededor del

cero se define por:

1.18

1.19

El primer momento alrededor del cero es la media o valor esperado de la variable aleatoria y se denota por µ; de esta manera se tiene que La media de una variable aleatoria se considera como una cantidad numérica alrededor de la cual los valores de la variable aleatoria tienden a agruparse. Por lo tanto, la media es una medida de tendencia central.

Definicion2: Sea X una variable aleatoria. El r-ésima momento de X o el r-ésimo

momento respecto a la media de X se define por:

(35)

El momento central cero de cualquier variable aleatoria es uno, dado que:

1.22

De manera similar, el primer momento central de cualquier variable aleatoria es cero, dado que:

1.23

El segundo momento central:

1.24

Recibe el nombre de varianza de la variable aleatoria. Puesto que:

(36)

1.3.2 Esperanza

El valor promedio de una variable aleatoria después de un número grande de experimentos, es su valor esperado.

El valor esperado de una variable aleatoria X es el promedio o valor medio de X y

está dado por:

1.26

1.27

En donde y son las funciones masa de probabilidad y de densidad de probabilidad, respectivamente.

En general, el valor esperado de una función g(X) de la variable aleatoria X, está

dado por

1.28

1.29

La esperanza de una variable aleatoria X no es una función de X sino un número fijo

y una propiedad de la distribución de probabilidad de X.

(37)

1.3.3 Varianza

La varianza de cualquier variable aleatoria es el segundo momento alrededor del

origen menos el cuadrado de la media. Generalmente se denota por “ 2 o Var(X)”.

La varianza de una variable aleatoria es una medida de la dispersión de la distribución de probabilidad de ésta.

1.30

Así

1.3.4 Covarianza y coeficiente de Correlación

El (k, m)–ésimo momento de una v.a. bidimensional (X, Y) está definido por

∑ ∑ ( ) 1.31

(38)

El (1, 1) momento de (X, Y)

1.33 Es llamado la correlación de X y Y. Si E(X Y) = 0, entonces decimos que X y Y son ortogonales. La covarianza de X y Y, denotada por Cov (X, Y)o XY, es definida por:

1.34 Expandiéndola, obtenemos

1.35

Si Cov(X) = 0, Entonces decimos que X y Y son no correlacionadas. De la ecuación

anterior vemos que X y Y son no correlacionadas si

1.36

Note que si X y Y son independientes, entonces se puede observar que son no

correlacionadas.

El coeficiente de correlación, denotado por o se define por

(39)

1.4 Ejemplos de variables aleatorias

1.4.1 Variable Aleatoria Uniforme.

Supongamos que ocurre un evento en que una variable aleatoria toma valores de un intervalo finito, de manera que estos se encuentran distribuidos igualmente sobre el intervalo. Esto es, la probabilidad de que la variable aleatoria tome un valor en cada subintervalo de igual longitud es la misma. Se dice entonces que la variable aleatoria se encuentra distribuida uniformemente sobre el intervalo.

Definición 1: Se dice que una variable aleatoria X está distribuida uniformemente

sobre el intervalo si su función de densidad de probabilidad está dada por:

{

1.38

La función de densidad de probabilidad de una distribución uniforme es constante en el intervalo , como se ilustra en la figura 1.4.1; Por esto, tal distribución también se conoce como distribución rectangular.

(40)

La función de distribución acumulativa se determina por:

1.39

1.40

Se sigue entonces que, para cualquier subintervalo interior :

1.41

Gráficamente se representa a la distribución acumulativa en la figura 1.4.2:

(41)

Esto nos ilustra que la probabilidad de que X tome valores del subintervalo

es

por la longitud del subintervalo y, de esta forma, igual a la probabilidad de que X tome valores en cualquier otro subintervalo de la misma longitud.

La distribución uniforme proporciona una representación adecuada para redondear las diferencias que surgen al medir cantidades físicas entre los valores observados y los reales.

Ejemplo

Sea X un número aleatorio entre 0 y 5. Entonces X tiene una distribución uniforme dada por

Por lo tanto

(42)

1.4.2 Variable aleatoria Gaussiana

Se dice que una variable aleatoria X es de tipo Gaussiana si su función de densidad

tiene la siguiente forma:

1.42

Donde es la varianza y es la media.

Esta función se ha dibujado en la figura 1.4.3:

Figura 1.4.3 La función de densidad de una variable aleatoria gaussiana

Su valor máximo se produce en . Su amplitud alrededor del punto

está relacionada con . La función decrece a 0.607 veces su máximo en

(43)

La densidad Gaussiana es la más importante de todas las densidades y se emplea prácticamente en todas las áreas de las ciencias y de la ingeniería.

Esta importancia radica en que permite describir de forma precisa muchas magnitudes importantes del mundo real, especialmente cuando dichas magnitudes son el resultado de muchos pequeños efectos aleatorios, que se combinan para crear la magnitud de interés.

La función de distribución es:

√ ∫

1.44

Esta integral no tiene una solución cerrada conocida y debe evaluarse por métodos numéricos o aproximaciones.

El caso normalizado donde , se obtiene la función de distribución correspondiente por . A partir de (1.44), es:

1.45 Que es una función solo de x, para un valor negativo de x se usa la relación:

(44)

Para demostrar que la función de distribución general de (1.33) puede expresarse en términos de la función dada por (1.34), hacemos el cambio de variable:

1.47

En 1.47 y obtenemos:

1.48 A partir de (1.48) esta expresión es claramente equivalente a:

1.49

La figura 1.4.4 describe el comportamiento de la expresión de

(45)

La función también puede evaluarse mediante aproximaciones. Primero se escribe la función como:

) 1.50

Donde

1.51

Se conoce como la función Q. Al igual que , no tiene una solución cerrada

conocida, pero lo aremos por aproximación dada por la fórmula:

| | 1.52

Donde a y b son constantes siendo

1.4.3 Binomial

Se puede imaginar un experimento en el que el resultado es la ocurrencia o la no ocurrencia de un evento. Sin pérdida de generalidad, llámese éxito a la ocurrencia del evento y fracaso a su no ocurrencia. Además, sea p la probabilidad de éxito cada

vez que el experimento se lleva a cabo y la probabilidad de fracaso. Supóngase que el experimento se realiza n veces, y cada uno de estos es independiente de todos los demás, y sea X la variable aleatoria que representa el número de éxitos en

(46)

El interés está en determinar la probabilidad de obtener exactamente éxitos durante los n ensayos. Las dos suposiciones claves para la distribución binomial son:

1.- La probabilidad de éxito p permanece constante para cada ensayo.

2.- Los n ensayos son independientes entre sí.

Para obtener la función de probabilidad de la distribución binomial, primero se determina la probabilidad de tener, en n ensayos, x éxitos consecutivos seguidos de n –x fracasos consecutivos. Ahora bien se tiene:

La probabilidad de obtener exactamente x éxitos y n-x fracasos en cualquier otro

orden es la misma puesto que los factores p y (1-p) se reordenan de acuerdo con el

orden particular. Por lo tanto, la probabilidad de tener x éxitos y n-x fracasos en

cualquier orden, es el producto de por el número de ordenes distintos.

Este último es el número de combinaciones de n objetos tomado x a la vez. De

acuerdo con lo anterior se tiene la siguiente definición:

Definición 1: Sea X una variable aleatoria que representa el número de éxitos en n

ensayos y p la probabilidad de éxitos con cualquiera de estos. Se dice entonces que X tiene una distribución binomial con función de probabilidad.

{

(47)

Los parámetros de la distribución binomial son n y p. Estos definen una familia de distribuciones binomiales, en donde cada miembro tiene la función de probabilidad determinada por (1.50). Para ilustrarlas el efecto de estos parámetros la figura 1.4.5 proporciona algunas gráficas de la distribución binomial.

Figura 1.4.5 Gráfica de la función binomial de probabilidad

Ejemplo: utilizando la fórmula 1.53 sea n = 5 y p = 0.4 entonces:

Así:

(48)

El nombre distribución binomial proviene del hecho de que los valores para

solo los términos sucesivos de la expansión binomial de esto es:

1.54

para , este hecho Pero dado que

también verifica que es una función de probabilidad.

La media de una variable aleatoria binomial es:

1.55

La varianza de una variable aleatoria binomial es:

(49)

1.4.4 Poisson

La variable aleatoria representa el número de eventos independientes que ocurre a una variable aleatoria. Muchos eventos aleatorios ocurren de manera independiente con una velocidad constante en el tiempo o en el espacio.

La distribución de Poisson es el principal modelo de probabilidad empleado para analizar problemas de líneas de espera, además, ofrece una aproximación excelente a la función de probabilidad Binomial cuando p es pequeño y n grande.

Definición 1: Sea X una variable aleatoria que representa el número de eventos

aleatorios independientes que ocurren a una rapidez constante sobre el tiempo o el espacio. Se dice que la variable aleatoria X tiene una distribución de Poisson con función masa de probabilidad.

{

1.57

El parámetro de la distribución de Poisson es λ, el número promedio de ocurrencias

del evento aleatorio por unidad de tiempo. Para valores mayores que cero, λ define

una familia de distribuciones con una función de probabilidad determinada por (1.57), en la figura 1.4.6 se proporcionan algunas gráficas de la función de probabilidad de

Poisson, para distintos valores de λ:

(50)

Puede verificarse que (1.57) es una función de probabilidad, puesto que para ∑ ∑ 1.58 Ejemplo: sea ; entonces:

De esta forma se tiene:

(51)

Con este ejemplo se determina que la probabilidad individual son más y más pequeñas conforme la variable aleatoria toma valores cada vez más grandes. Ésta es una característica de la distribución de Poisson. La probabilidad de que una variable aleatoria de Poisson X sea menor o igual a un valor de x se determina por la función de distribución acumulativa.

1.59

Ejemplo: sea La probabilidad de que X sea menor que tres es:

Los momentos de la variable aleatoria de Poisson se determinan mediante los mismos procedimientos utilizados para la variable aleatoria binomial. Si X una variable aleatoria de Poisson, su valor esperado es:

(52)

Para la varianza X:

1.61

Entonces, de

Tenemos:

Y la varianza de X es:

(53)

C

APÍTULO

2

|

“Procesos

(54)

2.1 Introducción

En el mundo práctico de la ingeniería y la ciencia, es necesario trabajar con formas de onda variables con el tiempo. Con frecuencia, nos encontraremos en los sistemas prácticos con forma de onda temporales aleatorias. Casi siempre una señal de información de un sistema de comunicaciones será aleatoria.

Por ejemplo, el flujo de bits en un sistema de comunicaciones binario es un mensaje aleatorio porque cada que se genera un bit se genera de manera aleatoria (Fig.2.1.1).

Fig.2.1.1 Secuencia de bits aleatorios

Por otro lado, una señal deseada a menudo va acompañada de una forma de onda aleatoria no deseada como el ruido. El ruido afecta o se mezcla con el mensaje y fundamentalmente limita el rendimiento del sistema.

La idea de un modelo matemático utilizado para describir un fenómeno físico se establece perfectamente en las ciencias físicas y en la ingeniería. En este contexto es posible distinguir dos clases de modelos matemáticos: determinístico y estocástico. Se afirma que un modelo es determinístico si no hay incertidumbre acerca de su comportamiento dependiente del tiempo en cualquier instante. Sin embargo, en muchos problemas reales el empleo de un modelo determinístico resulta inapropiado porque el fenómeno físico de interés incluye demasiados factores desconocidos.

(55)

2.2 Proceso aleatorio

Para conocer el concepto de proceso aleatorio es necesario que se amplíe el concepto de variable aleatoria, debido a que en un proceso aleatorio se debe tener en cuenta el tiempo.

Una variable aleatoria X es una función de los resultados posibles s de un

determinado experimento, para el caso de un proceso aleatorio dependerá de s pero

también del tiempo.

2.1

A la familia de todas estas funciones designadas por se le denomina proceso aleatorio.

Para determinar las probabilidades de los diversos resultados posibles de un experimento, este se repite muchas veces .Sin embargo no es lo mismo realizar un determinado experimento con diferentes equipos, que realizar un experimento muchas veces con uno solo. En principio podría esperarse que ambos métodos arrojaran los mismos resultados si las condiciones y equipos fueran idénticos y se mantuvieran así durante el experimento, pero como se mencionó anteriormente no es así. La aplicación de conceptos probabilísticos a los sistemas de comunicación están realmente más cerca del segundo. De manera conceptual, el segundo método podría considerarse como un generador de números aleatorios que produce un número entre 1 y 6, accionado por un reloj.

Ahora supóngase que se tienen muchos de estos generadores accionados por un reloj común. Dicha colección de fuentes de señal se llama conjunto. Las señales de los generadores de números aleatorios individuales (que están en función del tiempo)

se llaman funciones muestra, cuando hay “i” posibles resultados discretos. El

conjunto de las posibilidades funciones se llama proceso aleatorio.

Para tener más clara la idea de que proceso aleatorio se pondrá el siguiente ejemplo, podrían lanzarse de manera simultánea 100 monedas en un tiempo t y determinar las

(56)

Fig.2.1.2 El lanzamiento de 100 monedas al mismo tiempo tendrán diferentes resultados estadísticos y probabilísticos que si se lanza una sola moneda 100 veces.

Por otra parte, se podría observar una sola función de muestra por periodo de tiempo y determinar sus estadísticas (esto correspondería a lanzar una moneda 100 veces en sucesión Fig.2.1.2). De estas observaciones pueden calcularse promedios llamados de tiempo. Algunas de estas ideas se pueden ilustrar graficando la salida de cierto número de generadores de señales aleatorias idénticos.

Los procesos aleatorios se clasifican como continuos o discretos. Un proceso aleatorio continuo se compone de un proceso aleatorio con variables aleatorias asociadas de distribución continua. El proceso aleatorio Gaussiano es un ejemplo de un proceso aleatorio continuo. Un proceso aleatorio discreto se compone de variables aleatorias con distribución discreta.

2.2.1 Definición matemática de un proceso aleatorio

Los procesos aleatorios tienen funciones de dos variables:

1) Están en función del tiempo

2) Están en función de un espacio muestra

Además son aleatorios porque de llevar a cabo un experimento, no es posible definir con exactitud las formas de onda que se observarán en el futuro.

Suponga que asignamos un tiempo a cada punto muestra “s” de una función S de

acuerdo con la siguiente regla: Fig. 2.2.1

(57)

Figura 2.2.1 La función depende de 2 variables

Para representar un proceso estocástico podemos usar la notación usando variables aleatorias, tiene las siguientes interpretaciones:

1.- es una función de tiempo singular (o una muestra del proceso dado) en este

caso, “t” es una variable y “ es fijo

2.- Si “t” es fijo y es una variable, entonces es una v.a. igual al estado del

proceso dado en el tiempo “t”

3.- Si “t” y “s” son fijos, es un número.

Donde T es el intervalo de observación total. En un punto fijo s de la muestra, la

gráfica de la función en función del tiempo t recibe el nombre de realización o función de la muestra del proceso aleatorio.

(58)

2.3- Procesos estacionarios

Un proceso aleatorio se convierte en una variable aleatoria cuando se fija un tiempo en un determinado valor, esta variable aleatoria tendrá sus correspondientes propiedades estadísticas (valor medio, varianza, etc.). Si dos variables aleatorias se obtienen a partir del proceso para dos instantes de tiempo, tendrán propiedades estadísticas relacionadas con su función de densidad conjunta.

Un proceso aleatorio se dice que es estacionario si todas sus propiedades estadísticas no cambian con el tiempo.

La caracterización estadística del proceso es independiente del tiempo en el que se inicia la observación del proceso. Es decir, si un proceso de este tipo se divide en varios intervalos de tiempo, las distintas secciones del proceso exhiben en esencia las mismas propiedades estadísticas, un proceso de estas características se dice que es estacionario.

Existen varios tipos de estacionalidad, estos pueden ser clasificados de acuerdo al orden que tienen, pueden ser de primer, segundo y de orden N.

Un proceso aleatorio es estacionario de primer orden si su función de densidad de primer orden no cambia al desplazar el origen de tiempos. Para ejemplificar mejor:

2.3

Tiene que cumplirse para cualquier y cualquier número real si X (t) es un proceso estacionario de primer orden.

Las consecuencias de la expresión anterior son que es independiente de y que el valor medio del proceso es una constante:

(59)

Un proceso es estacionario de orden dos si su función de densidad de segundo orden satisface la siguiente relación:

Para todo

En este caso la correlación = de un proceso aleatorio es una función de y . Sin embargo la función de autocorrelación de un proceso estacionario de segundo orden es solo una función de las diferencias entre los tiempos y no de un tiempo absoluto, es decir:

= 2.3.1

Entonces

2.3.2

Dónde:

=

Un proceso arbitrario de segundo orden también es un proceso arbitrario de primer orden.

Se puede tener dos procesos aleatorios estacionarios conjuntamente si cada uno de

ellos satisface la ecuación

(60)

Al involucrar los dos procesos quedaría:

2.3.3

La estacionalidad de orden N la podemos obtener generalizando el razonamiento

anterior a N variables aleatorias , donde i=1,2...N.

Un proceso es estacionario de orden N si su función de densidad de orden N no

varía al desplazar el origen de tiempos, es decir:

La estacionalidad de orden N implica la estacionalidad de todos los ordenes k ≤σ.

2.4 Estadísticas de procesos aleatorios

2.4.1 Media

Tenemos un proceso aleatorio estrictamente estacionario . Se define la medida de proceso como el valor esperado de la variable aleatoria obtenida al observar el proceso en algún tiempo t, como se indica mediante

2.4

Donde es la función de densidad de probabilidad de primer orden del proceso. A partir de la ecuación

(61)

Deducimos que para un proceso aleatorio estrictamente estacionario, es independiente del tiempo t.

En consecuencia, la medida en la que un proceso es estrictamente estacionario es una constante, como lo indica

2.4.1

Para calcular el promedio temporal de una magnitud se define:

2.4.1 a

Donde A se utiliza para indicar el promedio temporal de forma análoga a la notación

para el valor medio estadístico.

El promedio temporal se calcula para todos los instantes de tiempo, ya que, en los procesos aleatorios se presupone que las funciones muestra de los procesos existen en todo instante de tiempo.

Los promedios específicos de interés son el valor medio Ẍ =A [ ] de una función

muestra.

2.4.2 Autocorrelación

Se define la función de autocorrelación de proceso como el valor esperado del producto de dos variables aleatorias, X(t1) y X(t2), obtenido al observar el proceso de

en los tiempos t1 y t2, respectivamente. De manera específica, escribimos

(62)

Donde es la función de densidad de probabilidad de segundo orden de proceso. Según la ecuación

( ) ( ) 2.4.3

Para toda t y

Deducimos que para un proceso aleatorio estrictamente estacionario , solo depende de la diferencia entre los tiempos de observación t1

y t2, lo cual significa que la función de autocorrelación de un proceso estrictamente

estacionario solo depende de la diferencia de tiempo t2 - t1 , como se indica mediante

2.4.4

De manera similar, la función de autocovarianza de un proceso estrictamente estacionario se escribe como

2.4.5

Las propiedades de la autocorrelación se enuncian enseguida:

Redefinimos la función de autocorrelación de un proceso estacionario como

2.4.6

Esta función de autocorrelación tiene varias propiedades importantes:

1. El valor cuadrático medio del proceso se puede obtener a partir de Rx( )

poniendo simplemente =0 en la ecuación (2.4.4) como se indica por medio de

(63)

2. La función autocorrelación Rx( ) es una función par de , esto es:

2.4.8

Esta propiedad se desprende directamente de la ecuación de definición (2.4.4). En consecuencia, es posible que definamos la función de autocorrelación Rx ( ) como

3. La función de autocorrelación Rx( ) tiene su magnitud máxima en =0, es

decir:

| | 2.4.9

Para probar esta propiedad, considere esta cantidad no negativa

[( ) ] 2.4.10

Al desarrollar los términos y tomar sus valores esperados individuales, encontramos fácilmente que

2.4.11

Que, a la luz de las ecuaciones (2.4.8) y (2.4.9) se reduce a

(64)

De manera equivalente, es posible escribir

2.4.12

A partir de los cual se deduce directamente la ecuación (2.4.9)

El significado físico de la función de autocorrelación es que esta proporciona una forma o medida para describir la interdependencia de dos variables aleatorias obtenidas al observar un proceso aleatorio en tiempo separado segundos. Por tanto, resulta claro que cuanto más rápido cambie con el tiempo el proceso aleatorio

, tanto más rápido la función de correlación disminuye a partir de su máximo cuando crece, como se ilustra en la figura 2.4.2.

Figura 2.4.2 Ilustración de las funciones de autocorrelación de procesos aleatorios

2.4.3 Correlación

Se considera el caso más general de dos procesos aleatorios , Y con funciones de autocorrelación y respectivamente. Las dos funciones de correlación cruzada de Y se define por medio de:

2.4.13

(65)

Donde t y u denotan dos valores de tiempo en los cuales se observa los procesos.

En este caso, las propiedades de correlación de los dos procesos aleatorios y Y quizá se exhiban de manera conveniente en forma de matriz del siguiente modo:

[

] 2.4.15

La cual recibe el nombre de matriz de correlación del procesos aleatorio Y . Si cada uno de los procesos aleatorios Y es estacionario y, además, son conjuntamente estacionarios, entonces es posible escribir la matriz de correlación como:

[

] 2.4.16

Donde

2.5 Procesos Ergódicos

Se dice que un proceso es ergódico si tomando una sola función muestra de todas las funciones muestras obtenidas del sistema, podemos obtener sus parámetros probabilísticos (media, varianza, etc.), un proceso para ser ergódico forzosamente requiere ser estacionario, sin embargo un proceso estacionario no forzosamente es ergódico.

Se dice que un proceso es ergódico respecto a la correlación si, y solo si, para todo :

(66)

Las esperanzas o promedio totales de un proceso aleatorio son promedios

“entre los extremos del proceso”.

Por ejemplo, la media de un proceso aleatorio en algún tiempo fijo tk es la

esperanza de la variable aleatoria X (tk) que describe todos los valores posibles de

las funciones muestra del proceso observado en el tiempo t=tk.

De modo natural, es posible definir también promedios de muestra a largo plazo o promedios de tiempo que son promedios a lo largo del proceso. Por lo tanto, estamos interesados en relacionar promedios totales con promedios de tiempo para que estos últimos representen un medio práctico que esté disponible para la estimación de los promedios totales de un proceso aleatorio. Pero cuando es posible sustituir los promedios de tiempo por los promedios totales, para esto se considera la función muestra x(t) de un proceso estacionario , con el intervalo de observación definido

como El valor de C. D. de se define mediante el promedio de tiempo

2.5.1

El promedio de tiempo es una variable aleatoria, ya que su valor depende del intervalo de observación y de la función muestra particular del proceso aleatorio X(t).

Puesto que se supone que el proceso X(t) es estacionario, la media del promedio de

tiempo está dada por:

2.5.2

Donde es la media del proceso X(t). El promedio de tiempo representa por

(67)

Se afirma que el proceso X(t) es ergódico en la media si se satisfacen dos

condiciones:

1.- El promedio de tiempo se acerca al promedio total en el límite cuando el intervalo de observación T tiende a infinito; esto es:

2.5.3

2.- La varianza de , tratada como una variable aleatoria, tiende a 0 en el límite cuando el intervalo de observación T se acerca a infinito; estos es:

2.5.4

El otro promedio en el tiempo de interés particular es la función de autocorrelación

definido en términos de la función muestra x (t) observada sobre el intervalo

. De la ecuación (2.5.2) es posible que definamos formalmente la función

de autocorrelación promediada en el tiempo de una función muestra x (t) del modo

siguiente:

2.5.5

Este segundo promedio en el tiempo también debe verse como una variable aleatoria con una media y una varianza propia; De manera similar a la ergodicidad de la media, afirmamos que el proceso es ergódico en la función de autocorrelación si se satisfacen las dos condiciones límite siguiente:

2.5.6

2.5.7

(68)

2.6 Trasmisión de un proceso aleatorio a través de un filtro lineal invariante con el tiempo

Supongamos que un proceso aleatorio se aplica como entrada a un filtro lineal invariante con el tiempo de respuesta al impulso , produciendo un nuevo proceso aleatorio en la salida del filtro, como en la figura 2.6.1.

En general, resulta difícil describir la distribución de probabilidad del proceso aleatorio de salida , aun cuando la distribución de probabilidad del proceso aleatorio de entrada este especificada por completo en .

Figura 2.6.1 Transmisión de un proceso aleatorio a través de un filtro lineal invariante con el tiempo

La trasmisión de un proceso a través de un filtro lineal invariante con el tiempo está gobernada por la integral de convolución; expresaremos el proceso aleatorio de salida en términos del proceso aleatorio de entrada como:

2.6.1

Donde 1 es la variable de integración. Entonces tenemos que la media de es:

2.6.2

(69)

Siempre que la esperanza sea finita para todo y el sistema estable, existe la posibilidad de que intercambiemos el orden de la esperanza y la integración de la ecuación (2.6.3) y escribir de esta manera:

2.6.4

Cuando el proceso aleatorio de entrada es estacionario, la media es una constante , por lo que podemos simplificar la ecuación (2.6.4) de este modo.

2.6.5

Donde es la respuesta en frecuencia en 0 (cd) del sistema.

La ecuación (2.6.5) establece que la media de un proceso aleatorio producida a

la salida de un sistema lineal invariante con el tiempo en respuesta a que actúa como el proceso de entrada es igual a la media de multiplicada por la respuesta de cd del sistema, lo cual se satisface de manera intuitiva.

Consideremos la función de autocorrelación del proceso aleatorio de salida . Por definición, tenemos:

(70)

Donde y denotan dos valores del tiempo en el cual se observa el proceso de salida. Por tanto resulta viable utilizar la integral de convolución para escribir:

[∫ ] 2.6.7

En este caso también, siempre que el valor cuadrático medio sea finito para todo t y el sistema sea estable, podemos intercambiar el orden de la esperanza y la integración con respecto a y en la ecuación (2.6.6), obteniendo:

2.6.8

Cuando la entrada es un proceso estacionario, la función de autocorrelación de

es únicamente una función de la diferencia entre los tiempos de observación

. Al poner en la ecuación (2.6.8), podemos escribir:

∫ ∫ 2.6.9

Al combinar este resultado con el que involucra a la media , observamos que si la entrada para un filtro y estable invariante con el tiempo es un proceso estacionario, entonces la salida del filtro también es un proceso estacionario.

Puesto que , se concluye que el valor cuadrático medio del proceso aleatorio de salida se obtiene al sustituir en la ecuación (2.6.9).

De tal modo obtenemos el resultado

(71)

2.7 Densidad Espectral de Potencia

Para un proceso aleatorio x(t), definimos como la porción de una función

muestra x(t) que existe entre –T y T, es decir:

{ 2.7.1

La energía contenida en x(t) en el intervalo ( -T, T ) es:

2.7.2

Puesto que tiene transformada de Fourier, su energía también tiene que estar relacionada con por lo tanto:

∫ | | 2.7.3

Si dividimos la última ecuación 2.7.3 entre 2T obtendremos la potencia media P (T)

en x(t) en el intervalo (-T,T ):

| | 2.7.4

Para lograr encontrar la potencia media deseada requerimos calcular la expresión anterior cuando T

como se muestra en la siguiente expresión:

Figure

Figura 4.2.12: Selección de la señal generada
Figura 4.2.17: Selección del archivo prueba1
Figura 4.2.19: Archivo “prueba1” en el cual se encuentras los valores de la señal senoidal
Figura 4.2.20: Onda senoidal generada
+7

Referencias

Documento similar

You may wish to take a note of your Organisation ID, which, in addition to the organisation name, can be used to search for an organisation you will need to affiliate with when you

Where possible, the EU IG and more specifically the data fields and associated business rules present in Chapter 2 –Data elements for the electronic submission of information

The 'On-boarding of users to Substance, Product, Organisation and Referentials (SPOR) data services' document must be considered the reference guidance, as this document includes the

In medicinal products containing more than one manufactured item (e.g., contraceptive having different strengths and fixed dose combination as part of the same medicinal

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

Products Management Services (PMS) - Implementation of International Organization for Standardization (ISO) standards for the identification of medicinal products (IDMP) in

This section provides guidance with examples on encoding medicinal product packaging information, together with the relationship between Pack Size, Package Item (container)

Package Item (Container) Type : Vial (100000073563) Quantity Operator: equal to (100000000049) Package Item (Container) Quantity : 1 Material : Glass type I (200000003204)