CONCEPTOS DE ESPERANZA Y VARIANZA CASO MULTIVARIADO

Transcripción

CONCEPTOS DE ESPERANZA Y VARIANZA CASO MULTIVARIADO
CONCEPTOS DE ESPERANZA Y
VARIANZA CASO MULTIVARIADO
ii
Índice general
1. Notación y nociones de teorı́a de la probabilidad
1
1.0.1. Media del vector X . . . . . . . . . . . . . . . . . . . .
1
1.0.2. VARIANZA del vector X . . . . . . . . . . . . . . . .
2
1.0.3. MEDIA MUESTRAL . . . . . . . . . . . . . . . . . . .
2
1.0.4. VARIANZA MUESTRAL . . . . . . . . . . . . . . . .
3
1.0.5. Propiedades . . . . . . . . . . . . . . . . . . . . . . . .
3
1.0.6. Normal multivariada . . . . . . . . . . . . . . . . . . .
5
1.0.7. Función de densidad normal multivariada . . . . . . . .
5
iii
iv
ÍNDICE GENERAL
Capı́tulo 1
Notación y nociones de teorı́a
de la probabilidad
Los datos se registran de esta manera:

x
x12 · · · x1j · · ·
 11

 x21 x21 · · · x2j · · ·

..
..
 ..
 .
.
.

DAT OS = 
 xi1 xi2 · · · xij · · ·

 ..
..
..
 .
.
.

xn1 xn2 · · · xnj · · ·
x1p









xip 

.. 
. 

xnp
x2p
..
.
Cada renglón de la matriz es una realización del vector aleatorio con p
variables, X 0 = (X1 , X2 , . . . , Xp ).
1.0.1.
Media del vector X
La media poblacional, cuando existe, se define como:
E[Xi ] =
R
x1 dF (xi ) = µi
1
2CAPÍTULO 1. NOTACIÓN Y NOCIONES DE TEORÍA DE LA PROBABILIDAD
Entonces




E[X] = 



µ1
µ2
..
.
µp




=µ



La varianza de una variable aleatoria, cuando existe, se define como:
R
Var[Xi ] = (xi − µ1 )2 f (xi )dxi = σi2
La covarianza entre dos variables aleatorias se define como:
cov(X1 , X2 ) =
1.0.2.
RR
(x1 − µ1 )(x2 − µ2 )f (x1 , x2 )dx1 dx2 = σ12
VARIANZA del vector X
La generalización del concepto de varianza es para el caso multivariado, la
matriz de varianzas y covarianzas.
Para X un vector aleatorio de dimensin p con media µ i.e. la matriz de
varianzasy covarianzas se define como:
Σ = E[(X − E[X])(X − E[X])0 ] = var(X)

E[(X1 − µ1 )(X1 − µ1 )] E[(X1 − µ1 )(X2 − µ2 )] · · ·


 E[(X2 − µ2 )(X1 − µ1 )] E[(X2 − µ2 )(X2 − µ2 )] · · ·
=

..
..

.
.

E[(Xp − µp )(X1 − µ1 )] E[(Xp − µp )(X2 − µ2 )] · · ·
E[(X1 − µ1 )(Xn − µp )]


E[(X2 − µ2 )(Xn − µp )] 


..

.

E[(Xp − µp )(Xp − µp )]
El elemento (i, j) de la matriz es la covarianza de Xi y Xj (cov(xi , xj )).
1.0.3.
MEDIA MUESTRAL
La media muestral de la j-ésima variable está dada por

3
x̄j =
1
n
Pn
i=1
xij
Denotaremos al conjunto de las medias en un vector de medias muestrales
x̄0 = (x̄1 ), . . . , (x̄p )
1.0.4.
VARIANZA MUESTRAL
La varianza muestral de la j-ésima variable se calcula como:
Pn
1
2
Sjj = n−1
i=1 (xij − x̄j )
COVARIANZA MUESTRAL
La covarianza entre la j-ésima variable y la k-ésima variable esta dada por
Pn
1
Sjk = n−1
i=1 (xij − x̄j )(xik − x̄k )
La matriz de covarianzas muestral denotada por S, contiene a las varianzas
y covarianzas.

S1 2 . . . S1p

Pn

. . . ..
1
0
S = n−1
.
i=1 (xi − x̄)(xi − x̄) = 

Sp 2
1.0.5.



.

Propiedades
Considerando que Σ = E[(X − E[X])(X − E[X])0 ], X vector aleatorio de
dimension p y Y vector aleatorio de dimension q y µ = E[X] se tiene que:
1. Σ = E(XX0 ) − µµ0
2. var(a0 X) = a0 var(X)a
3. Σ es una matriz positiva semi-definida
4. var(AX + a) = Avar(X)A0
5. cov(X, Y ) = cov(Y, X)0
6. cov(X1 + X2 , Y ) = cov(X1 , Y ) + cov(X2 , Y )
4CAPÍTULO 1. NOTACIÓN Y NOCIONES DE TEORÍA DE LA PROBABILIDAD
7. Si p=q, entonces cov(X + Y ) = var(X) + cov(X, Y ) + cov(Y, X) + var(Y )
8. cov(AX, BX) = Acov(X, X)B 0
9. Si X y Y son independientes, entonces cov(X, Y ) = 0
donde X, X1 y X2 son vectores aleatorios de (px1), Y es un vector aleatorio
de (qx1), A y B son matrices de (pxq) y a es un vector de p × 1.
De esta manera tenemos que

σ
···
 x1 x1

 σ x2 x1 · · ·
σxy = cov(x, y) = Σ = 
 ..
..
 .
.

σ xp x1 · · ·
Para el caso bivariado se tiene
σx1 xp
σx2 xp
..
.
σxp xp








Sxy = n1 Σ(xi − x̄)(yi − ȳ).
Otra matriz de nuestro interés es la matriz de correlaciones, esta se presenta
de la siguiente forma

ρ
· · · ρ x1 xp
 x1 x1

 ρ x2 x1 · · · ρ x2 xp
R=
 ..
..
..
 .
.
.

ρxp x1 · · · ρxp xp








Teorema 1. Si X y Y son variables independientes entonces ρ(X, Y ) =
cov(X, Y ) = 0
nota: el converso no siempre es cierto, por ejemplo sean X ∼ N (0, 1) y
Y = X 2 variables aleatorias no independientes.
E(X) = 0 y E(X 2 ) = 1 ya que var(x) = E(X − 0)2 = E(X 2 ) = 1
cov(X, Y ) = E(XY ) − E(X)(Y ) = E(X 3 ) = 0 la última igualdad se
obtiene por la simetrı́a de la función de densidad normal.
5
NOTA:Si X y Y son normales y cov(X, Y ) = 0 entonces las variables son
independientes.
1.0.6.
Función de densidad Normal multivariada
La función de densidad probabilı́stica para X normal multivariada.
f (x) =
exp[− 12 (x − µ)0 Σ−1 (x − µ)]
p
=
|2πΣ|
1
(2π)−p/2 |Σ|−1/2 exp[− (x − µ)0 Σ−1 (x − µ)]
2
Sea Σpxp = (σij ) una matriz simétrica, positiva semidefinida y µpx1 . x̄ ∼
Np (µ, Σ) si y solo si t0 x̄ ∼ N (t0 µ, t0 Σt) ∀t ∈ <p .
Proposición 1. x̄ ∼ Np (µ, Σ), E(x̄) = µ̄, var(x̄) = Σ. si t es el vector
canónico se tiene xi ∼ N (µi , σii ) si t = (0, . . . , 1, . . . , 1, . . . , 0) donde ti = 1 y
tj = 1
xi + xj ∼ N (µi + µj , σii + σjj + 2σij ), i 6= j
por otro lado sabemos var(xi + xj ) = σii + σjj + 2cov(xi , xj )
por lo tanto cov(xi , xj ) = σij .
Proposición 2. Amxp y x̄px1 ⇒ Ax̄ ∼ Np (Aµ, AΣA0 )
Ejemplo
x tiene distribución mezcla de 2 normales
cx (t) = αcx1 + (1 − α)cx2 (t), 0 < α < 1
x1 N (0, (1 − ρ1 )I + ρ1 II 0 )
x2 N (0, (1 − ρ2 )I + ρ2 II 0 )
entonces cxi (ti ) = αcz (ti ) + (1 − α)cz (ti ) = cz (ti )
d
xi → z, i = 1, . . . , n.
pero ~x no tiene distribución normal multivariada.
6CAPÍTULO 1. NOTACIÓN Y NOCIONES DE TEORÍA DE LA PROBABILIDAD
1.0.7.
Función de densidad normal multivariada
La función de densidad probabilı́stica para X normal multivariada.
f (x) =
exp[− 12 (x − µ)0 Σ−1 (x − µ)]
p
=
|2πΣ|
1
(2π)−p/2 |Σ|−1/2 exp[− (x − µ)0 Σ−1 (x − µ)]
2

Documentos relacionados

2 - UAB

2 - UAB un vector aleatorio. Sabiendo que E(Z1 ) = 4, E(Z2 ) = 8, 16. Sea z = Z2 V ar(Z1 ) = 100, V ar(Z2 ) = 49 y Cov(Z1 , Z2 ) = −2, encuentra E(z) y V ar(z). 17. Si definimos

Más detalles