• No se han encontrado resultados

CO 3121 Formulario Teoría de Conjuntos pdf

N/A
N/A
Protected

Academic year: 2020

Share "CO 3121 Formulario Teoría de Conjuntos pdf"

Copied!
9
0
0

Texto completo

(1)UNIVERSIDAD SIMÓN BOLÍVAR CO3121 PROBABILIDADES PARA INGENIEROS FORMULARIO Formulario 1: Teoría de Conjuntos Leyes Distributivas: ( A U B) I C = ( A I C ) U ( B I C ). y. ( A I B) U C = ( A U C ) I ( B U C ). (1.1). Ley de Complementos: ( Ac ) c = A. (1.2). Leyes de Morgan: ( A U B) c = A c I B c. y. ( A I B) c = A c U B c. (1.3). Formulario 2: Propiedades de las Probabilidades y Métodos de Conteo Axiomas de probabilidad:. 1). 0 ≤ P ( A) ≤ 1. 2). P( S ) = 1. 3). Si A1 , A2 , A3 L, es una secuencia de eventos mutuamente excluyentes de S , entonces :. (2.1). P ( A1 U A2 U A3 U L) = P ( A1 ) + P ( A2 ) + P ( A3 ) + L Probabilidad del complemento: P ( Ac ) = 1 − P ( A). (2.2). Probabilidad de la unión de dos eventos cualesquiera: P ( A U B ) = P ( A) + P ( B ) − P ( A I B ). (2.3). Probabilidad de la unión de tres eventos cualesquiera: P ( A U B U C ) = P ( A) + P ( B ) + P (C ) − P ( A I B ) − P ( A I C ) − P ( B I C ) + P ( A I B I C ). (2.4). Probabilidad de la intersección de un evento y un complemento cualesquiera: P ( B I Ac ) = P ( B ) − P ( A I B ). (2.5). 1.

(2) Formas (o maneras) de obtener r elementos tomados de un total de n: Sin restitución Ordenados. n. Pr =. Con restitución. n! (n − r )!. nr (2.6). n  n  n!  =   =   r   n − r  r!(n − r )!. No importa el orden.  n + r − 1 (n + r − 1)!  =   r!(n − 1)!  r. Resultados igualmente probables: P ( A) =. número de formas en que el evento A puede ocurrir número total de formas posibles. (2.7). Formulario 3: Probabilidad Condicional, Teorema de Bayes e independencia Probabilidad Condicional: P( A | B) =. P( A I B) P( B). (3.1). Teorema de multiplicación de probabilidad: P ( A1 I A2 I L I An ) = P( A1 ) P ( A2 | A1 ) P ( A3 | A1 , A2 ) L P ( An | A1 , K , An−1 ). (3.2). Probabilidad Total. Sea B1 , B2 , K , Bk una partición del espacio muestral S, entonces: k. P( A) = ∑ P( A | B j ) P( B j ). (3.3). j =1. Teorema de Bayes. Sea B1 , B2 , K , Bk una partición del espacio muestral S, entonces: P ( Bi | A) =. P ( A | Bi ) P ( Bi ). ∑ j =1 P( A | B j ) P( B j ) k. (3.4). Independencia. Dos eventos son independientes si y solo si: P ( A I B ) = P ( A) P ( B ), lo cual es equivalente a : P ( A | B ) = P ( A). (3.5). 2.

(3) Formulario 4: Distribución de una Variable Aleatoria Discreta La función de distribución (acumulada) de probabilidad de la variable aleatoria X se define como: F ( x ) = P( X ≤ x ) ,. para toda x.. (4.1). La función de (masa de) probabilidad de la variable aleatoria discreta X se define como: f ( x) = P( X = x) ,. para toda x.. (4.2). k = 1, 2, …, n.. (4.3). Distribución discreta Uniforme (n): P( X = k ) =. 1 , n. Distribución Bernoulli (p): P ( X = k ) = p k (1 − p )1− k ,. k = 0, 1;. 0≤p≤1. (4.4). Distribución Binomial (n, p): n P ( X = k ) =   p k (1 − p ) n − k , k . k = 0, 1, 2, …, n;. 0≤p≤1. (4.5). Distribución Binomial Negativa (r, p):  k − 1 r  p (1 − p )k − r , P ( X = k ) =  r − 1  . k = r, r + 1, …;. 0≤p≤1. (4.6). Distribución Geométrica (p): P ( X = k ) = p (1 − p ) k −1 ,. k = 1, 2, …;. 0≤p≤1. (4.7). Distribución Hipergeométrica (N, r, n):  r  N − r     k  n − k   P( X = k ) = , N   n. k = 0, 1, …, n;. k≤r.. (4.8). 0≤λ<∞. (4.9). Distribución Poisson (λ): e − λ λk P( X = k ) = , k!. k = 0, 1, 2, …;. 3.

(4) Formulario 5: Distribución de Variables Aleatorias Continuas. Función de densidad de probabilidad de la variable aleatoria continua X: f ( x) =. d F ( x) dx. (5.1). Función de distribución (acumulada) de probabilidad de la variable aleatoria continua X:. F ( x ) = P ( X ≤ x) = ∫. x. −∞. f (t )dt. (5.2). Probabilidad de un intervalo de la variable aleatoria continua X: b. P(a < X < b) = F (b) − F (a ) = ∫ f ( x)dx.. (5.3). a. Densidad de la distribución Uniforme(a, b): f ( x) =. 1 , b−a. a ≤ x ≤ b.. (5.4). Densidad de la distribución Exponencial(α): f ( x ) = αe −α x ,. 0 ≤ x < ∞;. 0<α<∞. (5.5). Densidad de la distribución Normal(µ, σ²): f ( x) =. 2 1 e− ( x − µ ) σ 2π. ( 2σ 2 ). ,. –∞ < x < ∞;. –∞ < µ < ∞;. σ>0. (5.6). 0 < x < ∞;. α, β > 0. (5.7). Densidad de la distribución Gamma(α, β): f ( x) =. 1 xα −1e − x / β , Γ(α ) β α. ∞. Γ(α ) = ∫ e − y yα −1dy , 0. Densidad de la distribución Beta(α, β): f ( x) =. Γ(α + β ) α −1 x (1 − x) β −1 , Γ(α ) ⋅ Γ( β ). 0 < x < 1;. α, β > 0. (5.8). 4.

(5) Formulario 6: Distribuciones Multivariadas. Distribuciones Marginales y Condicionales. Independencia. Función de probabilidad conjunta del vector aleatorio discreto (X, Y): f ( x, y ) = P ( X = x , Y = y ). (6.1). Función de distribución (acumulada) conjunta de probabilidad del vector aleatorio discreto (X, Y): F ( x, y ) = P ( X ≤ x, Y ≤ y ) = ∑∑ f ( s, t ). (6.2). s≤ x t ≤ y. Probabilidad de un evento “A”, del vector aleatorio discreto (X, Y): P[( X , Y ) ∈ A] =. ∑ f ( x, y ). (6.3). ( x , y )∈ A. Función de distribución (acumulada) conjunta del vector aleatorio continuo (X, Y):. F ( x , y ) = P ( X ≤ x, Y ≤ y ) = ∫. y. ∫. x. −∞ −∞. f ( s, t )dsdt. (6.4). Función de densidad de probabilidad conjunta de los vectores aleatorios continuos (X, Y) y (X1, X2, … ,Xn):. f ( x, y ) =. ∂2 F ( x, y ) , ∂x∂y. f ( x1 , x2 ,K, xn ) =. ∂n F ( x1 , x2 ,K, xn ) ∂x1∂x2 L ∂xn. (6.5). Probabilidad de una región “A” en el plano xy, del vector aleatorio continuo (X, Y):. P[( X , Y ) ∈ A] = ∫∫ f ( x, y )dxdy. (6.6). A. Funciones de Probabilidad Marginal de los vectores aleatorios discretos (X, Y) y (X1, X2, … ,Xn):. g ( x1 , x2 , x3 ) = ∑L ∑ f ( x1 , x2 ,K xn ). g x ( x ) = ∑ f ( x, y ) , y. x4. (6.7). xn. Densidades de Probabilidad Marginal de los vectores aleatorios continuos (X, Y) y (X1, X2, … ,Xn): ∞. g x ( x) = ∫ f ( x, y )dy ,. ∞. ∞. −∞. −∞. g ( x1 , xn ) = ∫ L ∫ f ( x1 , x2 ,K, xn )dx2 dx3 L dxn−1. −∞. (6.8). Probabilidades Condicionales de los vectores aleatorios (X, Y) y (X1, X2, … ,Xn):. f ( x | y) =. f ( x, y ) , g y ( y). f ( x1 , x2 ,K, xk | xk +1 , xk + 2 ,K, xn ) =. f ( x1 , x2 ,K, xn ) g ( xk +1 , xk + 2 ,K, xn ). (6.9). Las variables X y Y son independientes si: f ( x, y ) = f ( x ) f ( y ). ó, de forma equivalente, si:. f ( x | y ) = g x ( x). (6.10) 5.

(6) Formulario 7: Valor Esperado. Media. Varianza. Covarianza. Correlación. Esperanza Condicional.. Función Generadora de Momentos.. Valor Esperado de una función h(x) de la variable aleatoria X:.  ∑ h( x ) f ( x ) = ∑ h ( x ) P ( X = x )  x E [h( X )] =  ∞x ∫− ∞ h( x) f ( x)dx . Si X es discreta (7.1) Si X es continua. Media ó Valor Esperado de la variable aleatoria X:  ∑ xf ( x) = ∑ xP( X = x)  x E ( X ) = µ X =  ∞x ∫− ∞ xf ( x)dx . Si X es discreta (7.2) Si X es continua. Varianza de la variable aleatoria X:. {. } ( ). ( ). var( X ) = σ X2 = E ( X − E ( X ) ) = E X 2 − [E ( X )] = E X 2 − µ X2 2. 2. (7.3). Desviación Estándar de la variable aleatoria X:. desv.est.( X ) = σ X = var( X ). (7.4). Algunos resultados útiles para la media y la varianza. Si a y b son constantes entonces: E (aX + b) = E (aX ) + E (b) = aE ( X ) + b. (7.5). var(aX + b) = a 2 var( X ) = a 2σ X2. (7.6). Función Generadora de Momentos de la variable aleatoria X: M X (t ) = E (etX ). (7.7). Obtención del Momento de orden r-ésimo E ( X r ) a partir de la Función Generadora de Momentos:. dr M X (t ) = M X( r ) (0) = E ( X r ) r dt t =0. (7.8). Valor Esperado de una función h(x, y) del vector aleatorio (X, Y): ∑∑ h( x, y ) f ( x, y )  E [h( X , Y )] =  x∞ y∞ ∫ ∫ h( x, y ) f ( x, y )d xdy  −∞ −∞. Si ( X , Y ) es discreta (7.9) Si ( X , Y ) es continua. 6.

(7) Covarianza del vector aleatorio (X, Y):. cov( X , Y ) = σ XY = E[( X − E ( X ) )(Y − E (Y ) )] = E ( XY ) − E ( X ) E (Y ) = E ( XY ) − µ X µY. (7.10). Coeficiente de Correlación del vector aleatorio (X, Y):. cov( X , Y ) σ = XY , var( X ) var(Y ) σ X σ Y. ρ XY =. − 1 ≤ ρ XY ≤ 1. (7.11). Algunos resultados útiles para la suma de variables aleatorias. Si a y b son constantes entonces: E (aX + bY ) = aE ( X ) + bE (Y ). (7.12). var(aX + bY ) = a 2 var( X ) + b 2 var(Y ) + 2ab ⋅ cov( X , Y ). (7.13). Esperanza Condicional de una función h(x) dado que la variable aleatoria Y = y:  ∑ h( x ) f ( x | y )  E [h( X ) | y ] =  ∞x ∫− ∞ h( x) f ( x | y )dx . Si ( X , Y ) es discreta (7.14) Si ( X , Y ) es continua. Media Condicional de la variable aleatoria X dado Y = y:  ∑ xf ( x | y )  E ( X | y ) = µ X | y =  ∞x ∫− ∞ xf ( x | y )dx . Si ( X , Y ) es discreta (7.15) Si ( X , Y ) es continua. Varianza Condicional de la variable aleatoria X dado Y = y:. [. ]. var( X | y ) = σ X2 | y = E { X − E ( X | y )}2 | y = E ( X 2 | y ) − [E ( X | y )] = E ( X 2 | y ) − µ X2 | y 2. (7.16). Algunos resultados útiles con esperanzas condicionales:. E ( X ) = E[E ( X | Y )] var( X ) = E[ var( X | Y )] + var[ E ( X | Y )]. (7.17) (7.18). Si las variables X y Y son independientes entonces: •. E ( XY ) = E ( X ) E (Y ) , Por lo tanto: cov( X , Y ) = 0. (7.19). •. var(aX + bY ) = a 2 var( X ) + b 2 var(Y ). (7.20). •. E( X | Y ) = E( X ). (7.21). y. E (Y | X ) = E (Y ). 7.

(8) Formulario 8: Funciones de Variables Aleatorias. Desigualdad de Chebyshev. Ley general de los. grandes números. Teorema del Límite Central. Aproximación Normal a la Binomial.. Densidad de probabilidad de una variable aleatoria Y = g(X) definida como función de otra variable aleatoria continua X. Donde además, g −1 (Y ) = X es la “función inversa” de Y.. (. d d d P (Y ≤ y ) = P(g ( X ) ≤ y ) = P X ≤ g −1 ( y ) dy dy dy. Método de la función de distribución: f ( y ) =. f ( y ) = f ( x). Método de transformación:. (. ). ). dx d −1 = f g −1 ( y ) g ( y) dy dy. (8.1). (8.2). Desigualdad de Chebyshev: P ( X − µ ≥ kσ ) ≤. ⇒ P( X − µ ≥ k ) ≤. 1 k2. σ2 k2. (8.3). Media muestral de n variables aleatorias X1, X2, …, Xn independientes e igualmente distribuidas: X =. 1 n ∑ Xi n i =1. (8.4). Varianza muestral de n variables aleatorias X1, X2, …, Xn independientes e igualmente distribuidas: S2 =. 1 n 1 n 2  2 ( ) X X X i − nX 2  − = ∑ ∑ i  n − 1 i =1 n − 1  i =1 . (8.5). Valor esperado de la media muestral: E (X ) = E ( X i ) = µ. (8.6). var( X i ) σ 2 = var( X ) = n n. (8.7). Varianza de la media muestral:. Valor esperado de la varianza muestral:. ( ). E S 2 = var( X i ) = σ 2. (8.8). Ley (débil) General de los Grandes Números: Para todo ε > 0,. (. ). lim P X − µ < ε = 1. n →∞. (8.9). 8.

(9) Teorema del Límite Central: Sea X la media muestral de n variables aleatorias independientes, igualmente distribuidas, con media E(Xi) = µ y con var(Xi) = σ² < ∞. Sea Z una variable aleatoria definida como: Z=. n (X − µ ). σ. 0 < σ² < ∞ ,. ,. (8.10). con función de distribución acumulada F(z), entonces: lim F ( z ) = ∫. n →∞. 1 − y2 / 2 e dy , 2π. z. −∞. (8.11). lo cual significa que la variable Z tiende a distribuirse como N(0, 1) a medida que n tiende a ∞. Nota: En la obtención de Z (8.10) podríamos reemplazar σ por S y el resultado (8.11) se mantiene, siempre y cuando 0 < σ² < ∞. En la práctica, cuando n ≥ 30, S suele ser una buena aproximación de σ.. Aproximación Normal a la Distribución Binomial. Sea X una variable aleatoria con distribución Binomial con parámetros n y p. Sea Y la variable aleatoria definida como:. X − np np (1 − p ). Y=. (8.12). con función de distribución acumulada F(y) = P(Y ≤ y), entonces: lim F ( y ) = ∫. n →∞. y. −∞. 1 −z2 / 2 e dz . 2π. (8.13). Esto significa que la variable Y se “aproxima” a una distribución N(0, 1) a medida que n tiende a ∞. Nota 1: En la practica, una buena aproximación normal de la variable Y se obtiene cuando np y n(1 – p) son ambos mayores que 5. Nota 2: La aproximación se mejora considerablemente cuando se usa la “Corrección por Continuidad”, la cual consiste en que cada valor entero no negativo de X es representado por el intervalo que va de X – ½ a X + ½.. 9.

(10)

Referencias

Documento similar

a.- Demostrar que la función así definida es una función de masa de probabilidad de una v.a.. b.- Calcular la función de distribución y

Debido al riesgo de producir malformaciones congénitas graves, en la Unión Europea se han establecido una serie de requisitos para su prescripción y dispensación con un Plan

Como medida de precaución, puesto que talidomida se encuentra en el semen, todos los pacientes varones deben usar preservativos durante el tratamiento, durante la interrupción

Abstract: This paper reviews the dialogue and controversies between the paratexts of a corpus of collections of short novels –and romances– publi- shed from 1624 to 1637:

Habiendo organizado un movimiento revolucionario en Valencia a principios de 1929 y persistido en las reuniones conspirativo-constitucionalistas desde entonces —cierto que a aquellas

En el primer periodo, con un índice de Moran igual a -0.04657, la variable porcentaje de fracaso presenta una estructura aleatoria ya que tiene un p-value

 Variable aleatoria es la variable que surge de un experimento aleatorio, consistente en considerar todos los posibles valores de una variable en una población. La

Ejemplo de variables aleatorias: Una variable aleatoria perfectamente puede ser la función de los resultados del lanzamiento de un dado.. Un par