Estadística 5

Transcripción

Estadística 5
DELTA – MASTER
FORMACIÓN UNIVERSTARIA
C/ Gral. Ampudia, 16
Teléf.: 91 533 38 42 - 91 535 19 32
28003 MADRID
FORMULARIO DE ESTADÍSTICA.
DISTRIBUCIONES UNIDIMENSIONALES.
Esperanza matemática.
Siendo ξ una variable aleatoria y g ( ξ) una función de la misma, definimos:
∞
∑
g (x i )⋅ p i Caso discreto
i =1
E (g (ξ) ) =  ∞
 ∫ g ( x ) ⋅ f ( x ) dx Caso continuo
−∞
Como caso particular:
∞
∑
x ⋅p
i =1 i i
E (ξ) = α =  ∞
 ∫ x ⋅ f ( x ) dx
−∞
Propiedades:
E (k) = k
E (k 1 ⋅ ξ1 + k 2 ⋅ ξ 2 ) = k 1 ⋅ E (ξ1 ) + k 2 ⋅ E (ξ 2 )
E (ξ1 ⋅ ξ 2 ) = E (ξ1 )⋅ E (ξ 2 ) Si ξ1 y ξ 2 son independientes
Momentos.
Con respecto al origen:
Con respecto a la media:
∞
∑
xr ⋅ p
1 i i
αr =  ∞
 ∫ x r ⋅ f ( x ) dx
−∞
∞
∑
(x − α1 )r ⋅ p i
1 i
µr =  ∞
 ∫ (x − α1 )r ⋅ f ( x ) dx
−∞
Media = α1 = α
Varianza = µ 2 = σ 2 = α 2 − α12
Desviación típica = µ 2 = σ
Var (k 1 ⋅ ξ1 + k 2 ⋅ ξ 2 ) = k 12 ⋅ Var (ξ1 ) + k 22 ⋅ Var (ξ 2 ) + 2 ⋅ k 1 ⋅ k 2 ⋅ Cov (ξ1 , ξ 2 )
Si ξ1 y ξ 2 son independientes: Cov (ξ1 , ξ 2 ) = 0
1
DELTA – MASTER
FORMACIÓN UNIVERSTARIA
C/ Gral. Ampudia, 16
Teléf.: 91 533 38 42 - 91 535 19 32
28003 MADRID
Coeficiente de asimetría: g 1 =
µ3
σ3
Coeficiente de apuntamiento o kurtosis: g 2 =
Coeficiente de variación: C.V. =
µ4
−3
σ4
σ
α
Función característica.
∞
∑
ei t x i ⋅ pi Caso discreto

i
1
=
ϕξ ( t ) = E (ei t ξ ) =  ∞
 ∫ ei t x ⋅ f ( x ) dx Caso continuo
 −∞
En el caso continuo se verifica la siguiente propiedad:
α1 =
ϕ ′ (0)
;
i
α2 =
ϕ ′′ (0)
;
i2
α3 =
ϕ′′′ (0)
;
i3
y así sucesivamente.
DESIGUALDAD DE TCHEBYCHEFF.
Pr ( α − k < ξ < α + k ) ≥ 1 −
σ2
k2
En el caso particular k = n ⋅ σ
Pr (α − n ⋅ σ < ξ < α + n ⋅ σ) ≥ 1 −
1
n2
DISTRIBUCIONES BIDIMENSIONALES.
 x y p Caso discreto
∑ ij
i∑
=1 j=1
F ( x , y) = Pr (ξ1 ≤ x , ξ 2 ≤ y ) =  x y
 ∫ ∫ f ( x , y) dx dy Caso continuo
− ∞ − ∞
En el caso continuo f ( x, y) =
∂ 2 F ( x, y)
∂x ∂y
Distribuciones marginales.
∞
p = ∑
p ij Caso discreto
i.

j=1

∞
f1 ( x ) = ∫ f ( x, y ) dy = F1′ ( x ) Caso continuo

−∞
∞
p = ∑
p ij
.j

i =1

∞
f 2 ( y ) = ∫ f ( x, y ) dx = F2′ ( y )

−∞
2
DELTA – MASTER
FORMACIÓN UNIVERSTARIA
C/ Gral. Ampudia, 16
Teléf.: 91 533 38 42 - 91 535 19 32
28003 MADRID
x ∞
x
∑
p ij = ∑ p i.
∑
i =1
i =1 j=1
F1 ( x ) = Pr (ξ1 ≤ x ) = F ( x, ∞) =  x ∞
x
 ∫ ∫ f ( x , y ) dy dx = ∫ f 1 ( x ) dx
− ∞ − ∞
−∞
y ∞ p = y p
∑ ij ∑ . j
 ∑
j=1 i =1
j=1
F2 ( y ) = Pr (ξ 2 ≤ y ) = F ( ∞, y) =  y ∞
y
 ∫ ∫ f ( x , y ) dx dy = ∫ f 2 ( y) dy
 − ∞ − ∞
−∞
Distribuciones condicionadas.
p ij

(
)
Pr
x
y
=
i
j

p. j


f (x y ) = f ( x, y )

f 2 ( y)
p ij

Pr (y j x i ) = p

i.

f (y x ) = f ( x , y)

f1 (x )
 x p ij
i∑
 =1 p . j
F (x y ) = 
 x f (x y ) dx
−∫∞
 y p ij
 ∑
j=1 p i .
F (y x ) = 
y
 f (y x ) dy
∫
− ∞
Independencia.
Decimos que ξ1 y ξ 2 son independientes si se verifica que:
p ij = p i. ⋅ p . j

f ( x , y) = f1 ( x ) ⋅ f 2 ( y) que equivale a F ( x, y ) = F1 ( x ) ⋅ F2 ( y )
o bien:
f (x y ) = f 1 ( x )

o f (y x ) = f 2 ( y )
Momentos con respecto al origen.
α hk
∞ ∞
h
k
∑
∑ x i ⋅ y j ⋅ p ij

=
=
i
1
j
1

= E (x h ⋅ y k ) =  ∞ ∞
 ∫ ∫ x h ⋅ y k ⋅ f ( x , y ) dx dy
− ∞ − ∞
3
DELTA – MASTER
FORMACIÓN UNIVERSTARIA
C/ Gral. Ampudia, 16
Teléf.: 91 533 38 42 - 91 535 19 32
28003 MADRID
∞
∑
x ⋅p
i =1 i i.
α10 = x = E (ξ1 ) =  ∞
 ∫ x ⋅ f 1 ( x ) dx
− ∞
Momentos con respecto a la media.
µ hk
∞
∑
y j ⋅ p. j
 j=1
α 01 = y = E (ξ 2 ) =  ∞
 ∫ y ⋅ f 2 ( y) dy
− ∞
∞ ∞
k
∑
(
x i − x )h ⋅(y j − y ) ⋅ p ij
∑
i =1 j=1
= E ( x − x ) h ⋅ ( y − y) k =  ∞ ∞
 ∫ ∫ ( x − x ) h ⋅ ( y − y ) k ⋅ f ( x , y ) dx dy
− ∞ − ∞
[
]
2
µ 20 = Var (ξ1 ) = σ ξ21 = α 20 − α10
; σ ξ1 desviación típica de ξ1
2
µ 02 = Var (ξ 2 ) = σ ξ22 = α 02 − α 01
; σ ξ2 desviación típica de ξ 2
µ 11 = Cov (ξ1 , ξ 2 ) = α11 − α10 ⋅ α 01
El coeficiente de correlación es ρ =
µ11
, verificándose que − 1 ≤ ρ ≤ 1 .
σ ξ1 ⋅ σ ξ2
Si las variables son independientes ρ = 0 , en cambio si ρ = 0 eso no implica que las variables sean
independientes.
El coeficiente de determinación es ρ 2 (0 ≤ ρ 2 ≤ 1) e indica el porcentaje de causas comunes
(concausalidad) que influyen en las dos variables, también decimos que si ρ 2 = 0'55 una variable
explica el 55% de la otra.
REGRESIÓN.
∞
Curva de regresión de x sobre y: x = E (x y ) = ∫ x ⋅ f (x y ) dx
−∞
∞
Curva de regresión de y sobre x: y = E (y x ) = ∫ y ⋅ f (y x ) dy
−∞
Regresión lineal.
y = Ax + B
A=
µ11
σ 2x
B = α 01 − A ⋅ α10
x = Cy + D
C=
µ11
σ 2y
D = α10 − C ⋅ α 01
A y C tienen el mismo signo.
A ⋅ C = ρ 2 coeficiente de terminación.
4
DELTA – MASTER
FORMACIÓN UNIVERSTARIA
C/ Gral. Ampudia, 16
Teléf.: 91 533 38 42 - 91 535 19 32
28003 MADRID
DISTRIBUCIONES DE PROBABILIDAD.
n
- Binomial (n, p): Pr ( ξ = k ) =   ⋅ p k ⋅ q n − k ,
k
E ( ξ) = n ⋅ p
k = 0, 1, ..., n
ϕ ξ ( t ) = (q + e i t ⋅ p )
n
Var ( ξ) = n ⋅ p ⋅ q
- Poisson (λ
λ ) : Pr ( ξ = k ) = e −λ
E ( ξ) = λ
λk
,
k!
k = 0, 1, 2, ...
ϕ ξ ( t ) = e λ (e
Var (ξ) = λ
- Uniforme (en el intervalo [a, b]): x ∈ [a , b] , f ( x ) =
(b − a)2
Var ( ξ) =
12
a+b
E ( ξ) =
2
1
b−a
1
E (ξ 2 ) = 1
Var (ξ) = 1
1  x −µ 

σ 
− 
1
- Normal (µ, σ ) : f ( x ) =
e 2
σ 2π
E (ξ3 ) = 0
E (ξ 4 ) = 3
2
; x ∈ℜ
Var ( ξ) = σ 2
Tipificación: ξ′ =
)
ei t b − ei t a
ϕξ (t) =
i t (b − a)
1
E ( ξ) = µ
−1
− t2
− x2
1
e 2 ; ϕξ (t) = e 2
2π
- Normal (0, 1): f ( x ) =
E ( ξ) = 0
it
ϕ ξ ( t) = e
1
i t µ − t 2 ⋅σ 2
2
ξ−µ
→ N (0, 1) .
σ
( )
- Chi-cuadrado χ n2 : Dadas las variables aleatorias ξ1 , ξ 2 , ..., ξ n
independientes, la variable η = ξ12 + ξ 22 + ... + ξ2n es una χ 2n .
f (x) =
1
n
2
n
2 ⋅Γ  
2
E (η) = n
x
n
−1
2
⋅e
−
x
2
(
N (0, 1)
e
x≥0
,
Var ( η) = 2n
Se aproxima a una N n,
todas ellas
ϕ η ( t ) = ( −2 i t )
−
n
2
)
2n cuando n > 30 .
5
DELTA – MASTER
FORMACIÓN UNIVERSTARIA
C/ Gral. Ampudia, 16
Teléf.: 91 533 38 42 - 91 535 19 32
28003 MADRID
- t de Student ( t n ) : Dadas las variables aleatorias η1 , η2 , η3 ..., ηn todas ellas N (0, 1) e
n
es una t de Student con n grados de libertad.
independientes, la variable t n =
1 2
2
2
(η1 + η2 + ... + ηn )
n
E (t n ) = 0
tn ∈ ℜ
Var (t n ) =
n
para n > 2
n−2
Se aproxima a una N (0, 1) cuando n > 30 .
Tiene el interés de que su función de densidad no depende de σ .
- F de Snedecor (Fm, n ): Consideremos m + n variables aleatorias independientes η1 , η2 , ..., ηm ;
ξ1 , ξ 2 , ..., ξ n todas ellas N (0, σ) .
La variable Fm, n
Fm, n
1 2
(
η1 + η22 + ... + η2m )
= m
es una F de Snedecor con (m, n) grados de libertad.
1 2
2
2
(ξ1 + ξ2 + ... + ξ n )
n
 η12 η22
η2 
 2 + 2 + ... + m2  1 χ 2
σ  m m
σ
σ
=
=
1 2
ξ 2n 
1  ξ11 ξ 22
χn
 2 + 2 + ... + 2 
n
n σ
σ
σ 
1
m
La gráfica de su función de densidad es similar a la de χ 2 y se verifica que Fm , n =
1
Fn , m
TEOREMA CENTRAL DEL LÍMITE (DE LINDEBERG-LEVY).
Sean ξ1 , ξ 2 , ..., ξ n variables aleatorias independientes con la misma distribución, tales que
E (ξi ) = α , Var (ξi ) = σ 2 (finita). Entonces formamos una nueva variable S n = ξ1 + ξ2 + ... + ξ n , que
sabemos que verifica E (S n ) = n α , Var (S n ) = n σ 2 .
Pues bien este teorema dice que
lim
n→ ∞
Sn − n α
nσ
2
Sn − n α
n σ2
tiende a una N (0, 1) cuando n → ∞ .
= ξ1 (N (0, 1) )
(
)
Por tanto ξ1 + ξ 2 + ... + ξ n n
→ N n α, σ n .
→∞
Se admiten aproximaciones por valores de n > 30 .
6

Documentos relacionados