CONCEPTOS DE ESPERANZA Y VARIANZA CASO MULTIVARIADO
Transcripción
CONCEPTOS DE ESPERANZA Y VARIANZA CASO MULTIVARIADO
CONCEPTOS DE ESPERANZA Y VARIANZA CASO MULTIVARIADO ii Índice general 1. Notación y nociones de teorı́a de la probabilidad 1 1.0.1. Media del vector X . . . . . . . . . . . . . . . . . . . . 1 1.0.2. VARIANZA del vector X . . . . . . . . . . . . . . . . 2 1.0.3. MEDIA MUESTRAL . . . . . . . . . . . . . . . . . . . 2 1.0.4. VARIANZA MUESTRAL . . . . . . . . . . . . . . . . 3 1.0.5. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . 3 1.0.6. Normal multivariada . . . . . . . . . . . . . . . . . . . 5 1.0.7. Función de densidad normal multivariada . . . . . . . . 5 iii iv ÍNDICE GENERAL Capı́tulo 1 Notación y nociones de teorı́a de la probabilidad Los datos se registran de esta manera: x x12 · · · x1j · · · 11 x21 x21 · · · x2j · · · .. .. .. . . . DAT OS = xi1 xi2 · · · xij · · · .. .. .. . . . xn1 xn2 · · · xnj · · · x1p xip .. . xnp x2p .. . Cada renglón de la matriz es una realización del vector aleatorio con p variables, X 0 = (X1 , X2 , . . . , Xp ). 1.0.1. Media del vector X La media poblacional, cuando existe, se define como: E[Xi ] = R x1 dF (xi ) = µi 1 2CAPÍTULO 1. NOTACIÓN Y NOCIONES DE TEORÍA DE LA PROBABILIDAD Entonces E[X] = µ1 µ2 .. . µp =µ La varianza de una variable aleatoria, cuando existe, se define como: R Var[Xi ] = (xi − µ1 )2 f (xi )dxi = σi2 La covarianza entre dos variables aleatorias se define como: cov(X1 , X2 ) = 1.0.2. RR (x1 − µ1 )(x2 − µ2 )f (x1 , x2 )dx1 dx2 = σ12 VARIANZA del vector X La generalización del concepto de varianza es para el caso multivariado, la matriz de varianzas y covarianzas. Para X un vector aleatorio de dimensin p con media µ i.e. la matriz de varianzasy covarianzas se define como: Σ = E[(X − E[X])(X − E[X])0 ] = var(X) E[(X1 − µ1 )(X1 − µ1 )] E[(X1 − µ1 )(X2 − µ2 )] · · · E[(X2 − µ2 )(X1 − µ1 )] E[(X2 − µ2 )(X2 − µ2 )] · · · = .. .. . . E[(Xp − µp )(X1 − µ1 )] E[(Xp − µp )(X2 − µ2 )] · · · E[(X1 − µ1 )(Xn − µp )] E[(X2 − µ2 )(Xn − µp )] .. . E[(Xp − µp )(Xp − µp )] El elemento (i, j) de la matriz es la covarianza de Xi y Xj (cov(xi , xj )). 1.0.3. MEDIA MUESTRAL La media muestral de la j-ésima variable está dada por 3 x̄j = 1 n Pn i=1 xij Denotaremos al conjunto de las medias en un vector de medias muestrales x̄0 = (x̄1 ), . . . , (x̄p ) 1.0.4. VARIANZA MUESTRAL La varianza muestral de la j-ésima variable se calcula como: Pn 1 2 Sjj = n−1 i=1 (xij − x̄j ) COVARIANZA MUESTRAL La covarianza entre la j-ésima variable y la k-ésima variable esta dada por Pn 1 Sjk = n−1 i=1 (xij − x̄j )(xik − x̄k ) La matriz de covarianzas muestral denotada por S, contiene a las varianzas y covarianzas. S1 2 . . . S1p Pn . . . .. 1 0 S = n−1 . i=1 (xi − x̄)(xi − x̄) = Sp 2 1.0.5. . Propiedades Considerando que Σ = E[(X − E[X])(X − E[X])0 ], X vector aleatorio de dimension p y Y vector aleatorio de dimension q y µ = E[X] se tiene que: 1. Σ = E(XX0 ) − µµ0 2. var(a0 X) = a0 var(X)a 3. Σ es una matriz positiva semi-definida 4. var(AX + a) = Avar(X)A0 5. cov(X, Y ) = cov(Y, X)0 6. cov(X1 + X2 , Y ) = cov(X1 , Y ) + cov(X2 , Y ) 4CAPÍTULO 1. NOTACIÓN Y NOCIONES DE TEORÍA DE LA PROBABILIDAD 7. Si p=q, entonces cov(X + Y ) = var(X) + cov(X, Y ) + cov(Y, X) + var(Y ) 8. cov(AX, BX) = Acov(X, X)B 0 9. Si X y Y son independientes, entonces cov(X, Y ) = 0 donde X, X1 y X2 son vectores aleatorios de (px1), Y es un vector aleatorio de (qx1), A y B son matrices de (pxq) y a es un vector de p × 1. De esta manera tenemos que σ ··· x1 x1 σ x2 x1 · · · σxy = cov(x, y) = Σ = .. .. . . σ xp x1 · · · Para el caso bivariado se tiene σx1 xp σx2 xp .. . σxp xp Sxy = n1 Σ(xi − x̄)(yi − ȳ). Otra matriz de nuestro interés es la matriz de correlaciones, esta se presenta de la siguiente forma ρ · · · ρ x1 xp x1 x1 ρ x2 x1 · · · ρ x2 xp R= .. .. .. . . . ρxp x1 · · · ρxp xp Teorema 1. Si X y Y son variables independientes entonces ρ(X, Y ) = cov(X, Y ) = 0 nota: el converso no siempre es cierto, por ejemplo sean X ∼ N (0, 1) y Y = X 2 variables aleatorias no independientes. E(X) = 0 y E(X 2 ) = 1 ya que var(x) = E(X − 0)2 = E(X 2 ) = 1 cov(X, Y ) = E(XY ) − E(X)(Y ) = E(X 3 ) = 0 la última igualdad se obtiene por la simetrı́a de la función de densidad normal. 5 NOTA:Si X y Y son normales y cov(X, Y ) = 0 entonces las variables son independientes. 1.0.6. Función de densidad Normal multivariada La función de densidad probabilı́stica para X normal multivariada. f (x) = exp[− 12 (x − µ)0 Σ−1 (x − µ)] p = |2πΣ| 1 (2π)−p/2 |Σ|−1/2 exp[− (x − µ)0 Σ−1 (x − µ)] 2 Sea Σpxp = (σij ) una matriz simétrica, positiva semidefinida y µpx1 . x̄ ∼ Np (µ, Σ) si y solo si t0 x̄ ∼ N (t0 µ, t0 Σt) ∀t ∈ <p . Proposición 1. x̄ ∼ Np (µ, Σ), E(x̄) = µ̄, var(x̄) = Σ. si t es el vector canónico se tiene xi ∼ N (µi , σii ) si t = (0, . . . , 1, . . . , 1, . . . , 0) donde ti = 1 y tj = 1 xi + xj ∼ N (µi + µj , σii + σjj + 2σij ), i 6= j por otro lado sabemos var(xi + xj ) = σii + σjj + 2cov(xi , xj ) por lo tanto cov(xi , xj ) = σij . Proposición 2. Amxp y x̄px1 ⇒ Ax̄ ∼ Np (Aµ, AΣA0 ) Ejemplo x tiene distribución mezcla de 2 normales cx (t) = αcx1 + (1 − α)cx2 (t), 0 < α < 1 x1 N (0, (1 − ρ1 )I + ρ1 II 0 ) x2 N (0, (1 − ρ2 )I + ρ2 II 0 ) entonces cxi (ti ) = αcz (ti ) + (1 − α)cz (ti ) = cz (ti ) d xi → z, i = 1, . . . , n. pero ~x no tiene distribución normal multivariada. 6CAPÍTULO 1. NOTACIÓN Y NOCIONES DE TEORÍA DE LA PROBABILIDAD 1.0.7. Función de densidad normal multivariada La función de densidad probabilı́stica para X normal multivariada. f (x) = exp[− 12 (x − µ)0 Σ−1 (x − µ)] p = |2πΣ| 1 (2π)−p/2 |Σ|−1/2 exp[− (x − µ)0 Σ−1 (x − µ)] 2
Documentos relacionados
2 - UAB
un vector aleatorio. Sabiendo que E(Z1 ) = 4, E(Z2 ) = 8, 16. Sea z = Z2 V ar(Z1 ) = 100, V ar(Z2 ) = 49 y Cov(Z1 , Z2 ) = −2, encuentra E(z) y V ar(z). 17. Si definimos
Más detalles