Anexo 4 (Demostraciones)

Transcripción

Anexo 4 (Demostraciones)
173 – Matemáticas 1 : Álgebra Lineal
Anexo 4: Demostraciones
Álgebra lineal
Espacios vectoriales
Demostración de:
Propiedades 238 de la página 139
Propiedades 238.- Algunas propiedades que se deducen de las anteriores son:
(i) 0u = 0 .
(ii) k 0 = 0 .
(iii) (−1)u = −u .
(iv) k u = 0 ⇐⇒ k = 0 ó u = 0 .
(v) El vector cero de un espacio vectorial es único.
(vi) El vector opuesto de cada vector del espacio vectorial es único.
Demostración:
(i) Como 0u = (0 + 0)u = 0u + 0u , si sumamos a cada lado de la igualdad el opuesto de 0u , tenemos que
0 u + (−0 u ) = 0u + 0 u + (−0u ) luego 0 = 0u + 0 = 0u .
(ii) Como k 0 = k( 0 + 0 ) = k 0 + k 0 , si sumamos a cada lado de la igualdad el opuesto de k 0 , tenemos que
k 0 + (−k 0 ) = k 0 + k 0 + (−k 0 ) luego 0 = k 0 + 0 = k 0 .
(v) Si w verifica que w + u = u , entonces w + u + (−u ) = u + (−u ) de donde w + 0 = 0 y w = 0 .
En consecuencia, el vector cero es único.
(vi) Si w verifica que w + u = 0 , entonces w + u +(−u ) = 0 +( −u ) de donde w + 0 = −u y w = −u .
En consecuencia, el vector opuesto es único.
(iii) Veamos que (−1)u es el opuesto u : u + (−1)u = 1u + (−1)u = (1 + (−1))u = 0u = 0 .
(iv) Si k u = 0 y k 6= 0 , entonces
1
kku
=
1
k
0 = 0 . Luego 0 = k1 k u = ( k1 k)u = 1u = u .
La implicación en el otro sentido es evidente por (i) y (ii).
Demostración de:
Lema 245 de la página 141
Lema 245.- Si S es un conjunto linealmente independiente de vectores de V y v ∈ V −lin S , entonces S∪{ v }
es linealmente independiente.
Demostración:
Sea S = { u1 , u2 , . . . , ur } es un conjunto linealmente independiente de vectores V y sea v ∈ V que no
pertenece a lin S . Entonces, en la igualdad vectorial
λ1 u1 + λ2 u2 + · · · + λr ur + λ v = 0
h 15.1i
el coeficiente λ debe ser cero, pues si no lo es, podemos despejar
v = − λλ1 u1 − λλ2 u2 − · · · − λλr ur y v
estarı́a generado por los vectores de S , lo que no es cierto. Ahora bien, como λ = 0 , la ecuación 15.1 se reduce
a λ1 u1 + λ2 u2 + · · · + λr ur = 0 y en consecuencia, todos los λi son cero por ser los vectores ui linealmente
independientes.
Demostración de:
Lema 246 de la página 141
Lema 246.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto { v1 , v2 , . . . , vm } de vectores de V , con m > n, es linealmente dependiente.
Prof: José Antonio Abia Vian
Grados de Ing. Industrial : Curso 2012–2013
174 – Matemáticas 1 : Álgebra Lineal
Anexo 4
Demostración:
Sea B = { w1 , w2 , . . . , wn } la base de V . Cada vector vk del conjunto { v1 , v2 , . . . , vm } puede expresarse
como combinación lineal de los vectores de B , en la forma
vk = ak1 w1 + ak2 w2 + · · · + akn wn , para cada k = 1, . . . , m
El conjunto es linealmente dependiente si la ecuación λ1 v1 + λ2 v2 + · · · + λm vm = 0 tiene múltiples
soluciones. Sustituyendo:
0 = λ1 (a11 w1 + a12 w2 + · · · + a1n wn ) + λ2 (a21 w1 + a22 w2 + · · · + a2n wn )
+ · · · + λm (am1 w1 + am2 w2 + · · · + amn wn )
= (λ1 a11 + λ2 a21 + · · · + λm am1 )w1 + (λ1 a12 + λ2 a22 + · · · + λm am2 )w2
+ · · · + (λ1 a1n + λ2 a2n + · · · + λm amn )wn
Como B es un conjunto linealmente independiente de vectores, se tiene el sistema lineal

λ1 a11 + λ2 a21 + · · · + λm am1 = 0 


λ1 a12 + λ2 a22 + · · · + λm am2 = 0
···
··· = 0 


λ1 a1n + λ2 a2n + · · · + λm amn = 0
que tiene m incógnitas (los λk ) y n ecuaciones, con m > n, por lo que no tiene solución única.
Demostración de:
Proposición 250 de la página 141
Proposición 250.- Si V es un espacio vectorial, con dim V = n . Entonces, un conjunto de n vectores de V es
base de V ,
b) si genera a V .
a) si el conjunto es linealmente independiente, o
Demostración:
Sea S el conjunto de n vectores.
Si S es linealmente independiente, tiene que generar V , pues si no: podrı́an añadirse vectores linealmente
independientes con lo anteriores hasta formar una base de V (existirı́a al menos un vector vn+1 ∈ V − lin S ,
tal que S ∪ {vn+1 } es linealmente independiente, ver comentarios previos al Lema 246 anterior) que tendrı́a
al menos n + 1 vectores, lo que es absurdo.
Análogamente si S genera V , tiene que ser linealmente independiente, pues si no: podrı́an eliminarse
vectores dependientes de S hasta conseguir una base que tendrı́a menos de n vectores (Lema 243), lo que
también es absurdo.
Demostración de:
Desigualdad de Cauchy-Schwarz 260 de la página 145
Desigualdad de Cauchy-Schwarz 260.- Para todo u , v ∈ V, espacio con producto interior, se tiene
2
h u , v i2 ≤ ku k k v k
2
|hu , v i| ≤ k u k kv k .
o en la forma
Demostración:
2
2
Si v = 0 , es claro que 0 = h u , 0 i2 ≤ ku k k0 k = 0 , ∀ u ∈ V .
Si v 6= 0 , para todo k ∈ R , se verifica que
2
0 ≤ ku − k v k = h u − k v , u − k v i = h u , u i − 2kh u , v i + k 2 h v , v i
en particular, para k =
hu, vi
hv, vi
. Luego
0 ≤ hu, ui − 2
de donde
hu, vi2
kvk2
Demostración de:
Prof: José Antonio Abia Vian
2
≤ ku k
hu, vi
hu, vi2
hu, vi2
hu, vi2
hu, vi +
hv,
vi
=
hu,
ui
−
2
+
hv, vi
hv, vi2
hv, vi
hv, vi
2
hu, vi
hu, vi2
2
= hu, ui −
= kuk −
2
hv, vi
kvk
y por consiguiente
2
2
hu, vi2 ≤ ku k kvk .
Teorema 268 de la página 146
Grados de Ing. Industrial : Curso 2012–2013
175 – Matemáticas 1 : Álgebra Lineal
Anexo 4
Teorema 268.- Si S = {v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos, entonces
S es linealmente independiente.
Demostración:
Veamos que en la igualdad λ1 v1 + · · · + λi vi + · · · + λk vk = 0 , cada λi tiene que ser cero:
0 = hvi , 0i = hvi , λ1 v1 + · · · + λi vi + · · · + λk vk i = λ1 hvi , v1 i + · · · + λi hvi , vi i + · · · + λk hvi , vk i
2
= 0 + · · · + λi hvi , vi i + · · · + 0 = λi kvi k
como vi 6= 0 , su norma no es cero por lo que tiene que ser λi = 0 .
Demostración de:
Lema 273 de la página 147
Lema 273.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormal
de W . Entonces para cada v ∈ V , el vector v −ProyW (v ) es ortogonal a cada vector de W .
Demostración:
Por la Proposición 267, para probar que un vector es ortogonal a todos los vectores de un subespacio, basta
probarlo para los vectores de una base. Sea B = { w1 , w2 , . . . , wk }, para cada wi de B , por ser B ortonormal,
h wi , wi i = 1 y h wi , wj i = 0 , si i 6= j , entonces
hv−ProyW (v), wi i = hv − hv, w1 iw1 − · · · − hv, wi iwi − · · · − hv, wk iwk , wi i
= hv, wi i − hv, w1 ihw1 , wi i − · · · − hv, wi ihwi , wi i − · · · − hv, wk ihwk , wi i
= hv, wi i − 0 − · · · − hv, wi i · 1 − · · · − 0 = hv, wi i − hv, wi i = 0
Luego es ortogonal a los vectores de B y, por consiguiente, a todos los vectores de W .
Unicidad de la proyección ortogonal.- Sea V un espacio con producto interior y W un subespacio de V . Para
cada v ∈ V , la proyección ortogonal de v en W no depende de la base ortonormal elegida.
Es decir, si B1 = { u1 , u2 , . . . , uk } y B2 = { v1 , v2 , . . . , vk } son dos bases ortonormales de W , entonces,
para cada v ∈ V , los vectores
(1)
ProyW (v) = w1 = hv, u1 iu1 + hv, u2 iu2 + · · · + hv, uk iuk
(2)
ProyW (v) = w2 = hv, v1 iv1 + hv, v2 iv2 + · · · + hv, vk ivk
son el mismo.
Demostración:
Como w1 es una proyección ortogonal de v sobre W , el vector w1 ∈ W y el vector v − w1 es ortogonal a
W y, por la misma razón, el vector w2 ∈ W y el vector v − w2 es ortogonal a W .
Entonces, el vector (v − w1 ) − ( v − w2 ) = w2 − w1 cumple que: es ortogonal a todos los vectores de
W por ser diferencia de dos vectores ortogonales a W ; y también es un vector de W por ser diferencia de dos
vectores de W . En consecuencia, es ortogonal a si mismo y h w2 − w1 , w2 − w1 i = 0 , luego es el vector 0 ;
por lo que w1 = w2 y la proyección ortogonal no depende de la base.
Aplicaciones lineales
Justificación del método descrito en la Observación 285, de la página 154
Usaremos en la justificación el mismo ejercicio del ejemplo, pero la prueba es válida en cualquier caso.
t
Haciendo las operaciones
tiene por filas las [f (vi )]B2 , hemos obtenido la
 elementales sobre la matriz A , que
[f (v1 )]B2

[f (v6 − v1 )]B2 




[f
(v
5 − v6 + v1 )]B2 

matriz que tiene por filas 
1
3
3
 . Luego si repetimos las mismas operaciones
v
−
v
−
v
)]
[f
(v
+
4

2 1
2 6
2 5 B2 

[f (v3 + v6 + 2v5 )]B2 
[f (v2 − 2v6 − v5 )]B2
Prof: José Antonio Abia Vian
Grados de Ing. Industrial : Curso 2012–2013
176 – Matemáticas 1 : Álgebra Lineal
Anexo 4

[v1 ]B1
[v2 ]B1
[v3 ]B1
[v4 ]B1
[v5 ]B1
[v6 ]B1



sobre la matriz J que tiene por filas 





[v1 ]B1


[v
−
v1 ]B1
6




[v
−
v
+
v1 ]B1
5
6
 obtendrı́amos K = 
 [v4 + 1 v1 − 3 v6 − 3 v5 ]B1



2
2
2


[v3 + v6 + 2v5 ]B1
[v2 − 2v6 − v5 ]B1




.



Ahora bien, como la matriz J es la identidad, que tiene rango 6, la matriz K también tiene rango 6, por lo
que sus filas son linealmente independientes y en consecuencia los tres últimos vectores (los vectores de ker(f ) )
también son linealmente independientes.
Diagonalización
Justificación de la observación en Antes de seguir de la página 160
Definición.- Sea f : V −→ V un operador lineal, diremos que un escalar λ es un valor propio de f si existe
un vector v ∈ V , diferente de cero, tal que f (v) = λv .
Al vector v se le denomina vector propio de f correspondiente a λ .
Teorema.- Sea f : V −→ V un operador lineal, siendo V un espacio vectorial de dimensión n . Entonces,
existe una base de V con respecto a la cual la matriz de f es diagonal si y sólo si f tiene n vectores propios
linealmente independientes.
Demostración:
Si la matriz de f en la base B = {v1 , v2 , . . . , v1 } es D diagonal, los mismos vectores de la base son vectores
propios y son linealmente independientes, pues:

[f (v1 )]B
[f (v2 )]B
···
[f (vn )]B


=D=


λ1 0 · · · 0
0 λ2 · · · 0 

λ1 [v1 ]B
=
.. .. . .
. 
. .. 
. .
0 0 · · · λn
λ2 [v2 ]B
···
λn [vn ]B
Recı́procamente, si tenemos n vectores propios linealmente independientes, la matriz de f respecto de la base
formada con ellos es diagonal.

[f (v1 )]B
[f (v2 )]B
···
[f (vn )]B
=
λ1 [v1 ]B
λ2 [v2 ]B
···
λn [vn ]B


=

λ1 0 · · · 0
0 λ2 · · · 0
.. .. . .
.
. ..
. .
0 0 · · · λn





Teorema.- Sean V un espacio vectorial de dimensión n , f : V −→ V un operador lineal y A la matriz de f con
respecto a una base B = {v1 , v2 , . . . , vn } . Entonces:
a) Los valores propios de f son los valores propios de A
b) Un vector v ∈ V es un vector propio de f correspondiente al valor propio λ si y sólo si su matriz de
coordenadas [v]B es un vector propio de A correspondiente a λ .
Demostración:
a) Sea λ un valor propio de f , es decir, ∃v ∈ V , distinto de 0 , tal que f (v) = λv =⇒ [f (v)]B = [λv]B
=⇒ A[v]B = λ[v]B , luego λ es un valor propio de A al ser [v]B 6= 0 .
Sea λ un valor propio de A, entonces ∃x ∈ Rn , x 6= 0 tal que Ax = λx . Si tomamos x∗ = x1 v1 + · · · +
xn vn , siendo x = (x1 , . . . , xn ) , lo anterior quiere decir que A[x∗ ]B = λ[x∗ ]B ⇒ [f (x∗ )]B = [λx∗ ]B ⇒
f (x∗ ) = λx∗ y λ es un valor propio de f ya que x∗ 6= 0
b) v es un vector propio de f correspondiente a λ si y sólo si
f (v) = λv ⇐⇒ [f (v)]B = [λv]B ⇐⇒ A[v]B = λ[v]B
si y sólo si [v]B es un vector propio de A correspondiente a λ .
Prof: José Antonio Abia Vian
Grados de Ing. Industrial : Curso 2012–2013
177 – Matemáticas 1 : Álgebra Lineal
Anexo 4
Teorema.- Los vectores propios de f correspondientes al valor propio λ , son los vectores distintos de cero del
núcleo de la aplicación λId − f (denotamos por Id la aplicación identidad, Id (v ) = v ).
Llamaremos a dicho núcleo, espacio caracterı́stico de f correspondiente al valor propio λ .
Demostración:
v un vector propio correspondiente a λ ⇐⇒ f (v) = λv ⇐⇒ f (v) = λId (v) ⇐⇒ λId (v) − f (v) = 0 ⇐⇒
(λId − f )(v) = 0 ⇐⇒ v ∈ ker(λId − f ) .
Demostración de:
Teorema 301 de la página 160
Teorema 301.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios λ1 ,
λ2 , . . . , λk respectivamente, siendo λi 6= λj , ∀ i 6= j . Entonces el conjunto de vectores { v1 , v2 , . . . , vk } es
linealmente independiente.
Demostración:
Supongamos que v1 , v2 , . . . , vk son linealmente dependientes.
Por definición, un vector propio es distinto de cero, luego el conjunto {v1 } es linealmente independiente.
Sea r el máximo entero tal que {v1 , v2 , . . . , vr } es linealmente independiente. Puesto que hemos supuesto
que { v1 , v2 , . . . , vk } es linealmente dependiente, r satisface que 1 ≤ r < k . Además, por la manera en que
se definió r , {v1 , v2 , . . . , vr , vr+1 } es linealmente dependiente. Por tanto, existen escalares c1 , c2 , . . . , cr+1 ,
al menos uno diferente de cero, tales que
c1 v1 + c2 v2 + · · · + cr+1 vr+1 = 0 .
h 15.2i
Multiplicando en ambos lados de la igualdad por A y haciendo las sustituciones
Av1 = λ1 v1 , Av2 = λ2 v2 , . . . , A vr+1 = λr+1 vr+1
se obtiene
c1 λ1 v1 + c2 λ2 v2 + · · · + cr λr vr + cr+1 λr+1 vr+1 = 0
h 15.3i
Multiplicando los dos lados de (15.2) por λr+1 y restándole a (15.3) la ecuación resultante se obtendrá
c1 (λ1 − λr+1 ) v1 + c2 (λ2 − λr+1 ) v2 + · · · + cr (λr − λr+1 )vr = 0 .
Y dado que los vectores v1 , v2 , . . . , vr son linealmente independientes, necesariamente
c1 (λ1 − λr+1 ) = c2 (λ2 − λr+1 ) = · · · = cr (λr − λr+1 ) = 0
Como los λ1 , λ2 , . . . , λr+1 son distintos entre si, se deduce que c1 = c2 = · · · = cr = 0 .
Sustituyendo estos valores en (15.2) resulta que cr+1 vr+1 = 0 , y como vr+1 6= 0 se deduce que cr+1 = 0 ,
lo que contradice el hecho de que al menos uno de los escalares c1 , c2 , . . . , cr+1 debı́a de ser distinto de cero.
Luego los vectores v1 , v2 , . . . , vk han de ser linealmente independientes, que prueba el teorema.
Demostración de:
Proposición 303 de la página 161
Proposición 303.- Sea A de orden n y λk un autovalor de A de multiplicidad mk . Entonces
1 ≤ dim V (λk ) ≤ mk .
Demostración:
Como ya observamos anteriormente, dim V (λi ) ≥ 1 .
Supongamos que dim V (λk ) = d , y consideremos el operador lineal f : Rn −→ Rn definido por f ( v ) = A v .
Sea { v1 , . . . , vd } una base del espacio caracterı́stico V (λk ) , que podemos completar hasta obtener una base
de Rn , B = { v1 , . . . , vd , vd+1 , . . . , vn } . La matriz A0 , del operador en la base B , será de la forma
A0 =
[f (v1 )]B
···
[f (vd )]B
[f (vd+1 )]B
···
[f (vn )]B

=
Prof: José Antonio Abia Vian
λk [v1 ]B
···
λk [v2 ]B
[f (vd+1 )]B
···
[f (vn )]B





=




λk
..
.
0
0
..
.
0
··· 0
.
..
. .. A012
· · · λk
··· 0
.
· · · .. A022
··· 0











Grados de Ing. Industrial : Curso 2012–2013
178 – Matemáticas 1 : Álgebra Lineal
Anexo 4
de donde |λI −A0 | = (λ−λk )d |λI −A022 |. Pero como A y A0 son matrices semejantes, tienen el mismo polinomio
caracterı́stico, y (λ − λk )d |λI − A022 | = |λI − A0 | = |λI − A| = (λ − λk )mk Q(λ) , de donde se obtiene que d ≤ mk ,
pues mk es la multiplicidad de la raı́z.
Demostración de:
Teorema fundamental de la diagonalización 304 de la página 161
Teorema fundamental de la diagonalización 304.- Sea A una matriz de orden n . Entonces A es diagonalizable si y sólo si se cumplen las condiciones:
1.- El polinomio caracterı́stico tiene n raices reales. Es decir, |λI − A| = (λ − λ1 )m1 · · · (λ − λk )mk con
m1 + m2 + · · · + mk = n .
2.- Para cada espacio caracterı́stico V (λi ) , se cumple que dim V (λi ) = mi .
Demostración:
=⇒ Si A es diagonalizable, la matriz diagonal D y A son semejantes ( D = P −1 AP ) y por tanto poseen
el mismo polinomio caracterı́stico, luego P (λ) = |λI − A| = |λI − D| = (λ − λ1 )m1 · · · (λ − λk )mk , donde los
λi ∈ R son los valores de la diagonal de D y mi el número de veces que se repite. Por tanto, P (λ) tiene todas
sus raices reales y, por ser de grado n , m1 + m2 + · · · + mk = n .
Además, por ser A y D matrices semejantes, también lo son λI − A y λI − D , para todo λ ∈ R , pues
P −1 (λI − A)P = λP −1 IP − P −1 AP = λI − D , de donde rg(λI−A) = rg(λI−D) , para todo λ . Entonces, para
cada autovalor λi se tiene que rg(λi I − A) = rg(λi I − D) = n − mi y, en consecuencia, que dim V (λi ) = mi .
⇐= Si |λI − A| = (λ − λ1 )m1 · · · (λ − λk )mk , con m1 + m2 + · · · + mk = n , y dim V (λi ) = mi para cada
i = 1, . . . , k , consideremos en cada V (λi ) una base Bi , de la forma
n
o
n
o
n
o
B1 = p , . . . , pm , B2 = p , . . . , pm , . . . , Bk = pk , . . . , pkmk
Tomemos entonces B = B1 ∪B2 ∪· · ·∪Bk , un conjunto de n vectores propios de A, si vemos que son linealmente
independientes, tendremos que A es diagonalizable.
Planteemos una combinación lineal igualada a cero:
0 = β11 p + · · · + β1m1 pm + β21 p + · · · + β2m2 pm + · · · + βk1 pk + · · · + βkmk pkmk
= (β11 p + · · · + β1m1 pm ) + (β21 p + · · · + β2m2 pm ) + · · · + (βk1 pk + · · · + βkmk pkmk )
= v1 + v2 + · · · + vk
siendo vj = βj1 pj + · · · + βjmj pjmj ∈ V (λj ) , para cada j = 1, . . . , k .
Los vectores v1 , v2 , . . . , vk son vectores de espacios caracterı́sticos correspondientes, respectivamente, a
los valores propios distintos λ1 , λ2 , . . . , λk y por tanto, si no son cero, son linealmente independientes. Pero
la combinación lineal v1 + v2 + · · · + vk = 0 nos indicarı́a que son dependientes, luego la única forma de
eliminar esa contradicción es que vj = 0 , ∀j = 1, 2, . . . , k ; de donde, si 0 = vj = βj1 pj + · · · + βjmj pjmj ,
han de ser todos βj1 = βj2 = · · · = βjmj = 0 por ser Bj una base. Como es cierto para cada j , se tiene que
βji = 0 , ∀ i, j , con lo que B es linealmente independiente.
Demostración de:
Teorema fundamental de la diagonalización ortogonal 308 de la página 162
Teorema fundamental de la diagonalización ortogonal 308.- Una matriz A de orden n es diagonalizable ortogonalmente si y sólo si A es simétrica.
.
Demostración:
=⇒
A es diagonalizable ortogonalmente =⇒ ∃P ortogonal y D diagonal tal que P t AP = D =⇒ ∃P
ortogonal y D diagonal tal que A = P DP t =⇒ At = (P DP t )t = P DP t = A =⇒ A es simétrica.
⇐= Sea A simétrica, veamos que es diagonalizable. Primero, que todos los valores propios de A son reales:
Sea λ ∈ C un valor propio de A , entonces existe x = (x1 , . . . , xn ) 6= 0 ( xj ∈ C) tal que Ax = λ x . Por
ser A real, su polinomio caracterı́stico es real y el conjugado de λ, λ, es también autovalor de A; además,
tomando conjugados en la igualdad anterior, se tiene que A x = Ax = λ x . Entonces, son iguales los valores
xt Ax = xt (Ax) = xt (λx) = λxt x = λ
n
X
xj xj = λ
j=1
t
t
t
t
t
n
X
2
|xj |
j=1
t
t
x Ax = (x A)x = (x A )x = (Ax) x = (λx) x) = λx x = λ
n
X
|xj |
2
j=1
Prof: José Antonio Abia Vian
Grados de Ing. Industrial : Curso 2012–2013
179 – Matemáticas 1 : Álgebra Lineal
y, al ser x 6= 0 ,
n
P
Anexo 4
2
|xj | 6= 0 por lo que λ = λ y λ ∈ R. En consecuencia, si todos los autovalores de A son
j=1
reales, el polinomio caracterı́stico de A tiene las n raices reales.
Veamos ahora que para cada λj se verifica que dim V (λj ) = mj .
Sean dim V (λj ) = d y Bj = { x1 , . . . , xd } una base ortonormal de V (λj ) que ampliamos hasta una base
ortonormal de Rn , B = { x1 , . . . , xd , xd+1 , . . . , xn } .
Consideremos el operador lineal f : Rn −→ Rn dado por f ( x ) = Ax , luego A es la matriz de f en la base
canónica que es ortonormal y si A0 es la matriz de f en la base B y P la matriz de paso de B a la canónica,
P es ortogonal y A0 = P t AP . Como A es simétrica, A0 tambien lo será pues (A0 )t = (P t AP )t = P t At (P t )t =
P t AP = A0 .
0
[f
(x
)]
·
·
·
[f
(x
)]
[f
(x
)]
·
·
·
[f
(x
)]
A =
1 B
d B
d+1 B
n B


λj · · · 0
 .. . . ..


. . A012 

 .
 0 · · · λj


= λj [x1 ]B · · · λj [x2 ]B [f (xd+1 )]B · · · [f (xn )]B = 
 0 ··· 0



 .

.
 .. · · · .. A0 
22
0 ··· 0
donde A012 = 0 , puesto que A0 es simétrica y A022 cuadrada de orden n − d . Luego la matriz λj I − A0 nos
queda

 

λj − λj · · ·
0
0 ··· 0

  .. . . ..

..
..
..

  .

.
. .
0
0
.
.

 





0
·
·
·
λ
−
λ
0
·
·
·
0
j
j
0




λj I − A = 
 =  0 ··· 0

0
·
·
·
0

 


  .

..
..
.
.
.
0 
0 


λj I − A22
.
···
.
. · · · . λj I − A22
0
···
0
0 ··· 0
por lo que rg(λj I −A0 ) = rg(λj I −A022 ) . Por ser A y A0 semejantes rg(λj I −A) = rg(λj I −A0 ) (ver demostración
del Teorema 304), y se tiene que rg(λj I −A022 ) = rg(λj I −A) = n−dim V (λj ) = n−d por lo que |λj I − A022 | =
6 0.
Entonces, |λI − A| = |λI − A0 | = (λ − λj )d |λI − A022 | , con |λj I − A022 | =
6 0 , luego d = mj .
En resumen, A diagonaliza, y tomando una base ortonormal de cada uno de los espacios caracterı́sticos,
tendremos n vectores propios de norma 1 y, que por el Lema 307, son ortogonales entre sı́.
Formas cuadráticas
Demostración de:
Teorema de Sylvester o Ley de inercia 319 de la página 169
Teorema de Sylvester o Ley de inercia 319.- Si una forma cuadrática se reduce a la suma de cuadrados en
dos bases diferentes, el número de términos que aparecen con coeficientes positivos, ası́ como el número de
términos con coeficientes negativos es el mismo en ambos casos.
Demostración:
Supongamos que respecto a una base B1 = { b1 , b2 , . . . , bn } la matriz de la forma cuadrática Q es una matriz
diagonal y tiene p elementos positivos y s elementos negativos en su diagonal principal, luego la expresión de
la forma cuadrática será
Q(x ) = a1 x21 + · · · + ap x2p − ap+1 x2p+1 − · · · − ap+s x2p+s
con ai > 0 para todo i , y (x1 , . . . , xp , xp+1 , . . . , xp+s , xp+s+1 , . . . , xn ) = [x ]tB1 ; y que respecto a otra base
B2 = {d1 , d2 , . . . , dn } la matriz de la forma cuadrática es también diagonal con q elementos positivos y r
negativos, por lo que Q se expresará en la forma
2
2
Q( x ) = c1 y12 + · · · + cq yq2 − cq+1 yq+1
− · · · − cq+r yq+r
con ci > 0 para todo i, e (y1 , . . . , yq , yq+1 , . . . , yq+r , yq+r+1 , . . . , yn ) = [x ]tB2 .
Prof: José Antonio Abia Vian
Grados de Ing. Industrial : Curso 2012–2013
180 – Matemáticas 1 : Álgebra Lineal
Anexo 4
Por el teorema 317 anterior, sabemos que las matrices congruentes tienen el mismo rango, luego tienen que
ser p + s = q + r . Veamos que p = q , con lo que tendremos también que s = r .
Si p 6= q , uno de ellos es mayor que el otro, supongamos que es p > q y consideremos los conjuntos de
vectores { b1 , . . . , bp } y { dq+1 , . . . , dn } . Si p > q , el conjunto {b1 , . . . , bp , dq+1 , . . . , dn } tiene p+(n−q) =
n + (p − q) > n vectores y, por lo tanto, es un conjunto linealmente dependiente y en la igualdad
λ1 b1 + · · · + λp bp + µq+1 dq+1 + · · · + µn dn = 0
alguno de los coeficientes no es cero. Entonces, el vector
λ1 b1 + · · · + λp bp = −µq+1 dq+1 − · · · − µn dn = x
no es el cero (si es cero, todos los λi son cero por ser los bi de B1 , y todos los µj = 0 por ser los dj ∈ B2 ),
con algún λi y algún µj distintos de cero. Tenemos ası́ que
[x ]tB1 = (λ1 , . . . , λp , 0, . . . , 0)
y
[x ]tB2 = (0, . . . , 0, −µq+1 , . . . , −µn )
pero calculando Q( x ) respecto a las dos bases obtenemos
Q(x) = a1 λ21 + · · · + ap λ2p − ap+1 0 − · · · − ap+s 0 = a1 λ21 + · · · + ap λ2p > 0
Q(x) = c1 0 + · · · + cq 0 − cq+1 (−µq+1 )2 − · · · − cq+r (−µq+r )2 + 0(−µq+r+1 )2 + · · · + 0(−µn )2
= −cq+1 (−µq+1 )2 − · · · − cq+r (−µq+r )2 ≤ 0
lo que no puede ser. Por tanto deben ser p = q y s = r , es decir, las dos matrices diagonales tienen el mismo
número de elementos positivos y negativos.
Demostración de:
Teorema de clasificación 322 de la página 169
Teorema de clasificación 322.- Sea Q una forma cuadrática en un espacio de dimensión n . Se verifica:
a) Q es nula ⇐⇒ Sig(Q) = (0, 0)
b) Q es definida positiva ⇐⇒ Sig(Q) = (n, 0) .
c) Q es semidefinida positiva ⇐⇒ Sig(Q) = (p, 0) con 0 < p < n .
d) Q es definida negativa ⇐⇒ Sig(Q) = (0, n) .
e) Q es semidefinida negativa ⇐⇒ Sig(Q) = (0, q) con 0 < q < n .
f) Q es indefinida ⇐⇒ Sig(Q) = (p, q) con 0 < p, q .
Demostración:
Sea B = {v1 , . . . , vn } una base en la cual, la expresión de Q es Q(x ) = d1 x21 + d2 x22 + · · · + dn x2n
donde (x1 , . . . , xn ) = [ x ]tB . Luego, Q(vi ) = di , para todo i = 1, . . . , n , ya que los vectores de B tiene por
coordenadas [ v1 ]tB = (1, 0, 0, . . . , 0) , [ v2 ]tB = (0, 1, 0, . . . , 0) , . . . , [vn ]tB = (0, 0, 0, . . . , 1) . Entonces:
a) Si Q( x ) = 0 , para todo x , se tiene que di = Q(vi ) = 0 , para todo i, luego Sig(Q) = (0, 0) .
Reciprocamente, si di = 0 para todo i , entonces Q(x ) = 0 para todo x .
b) Si Q( x ) > 0 para todo x 6= 0 , se tiene que di = Q(vi ) > 0 , para todo i, luego Sig(Q) = (n, 0) .
Recı́procamente, si di > 0 para todo i , entonces Q(x ) > 0 para todo x 6= 0 .
c) Si Q(x ) ≥ 0 para todo x 6= 0 , es di = Q( vi ) ≥ 0 para todo i. Como no es nula existe algún dj > 0 y
como no es definida positiva existe algún dk = 0 , luego Sig(Q) = (p, 0) con 0 < p < n .
Recı́procamente, si di ≥ 0 para todo i, con algún dj > 0 y algún dk = 0 , se tiene que Q( x ) ≥ 0 para
todo x , que Q( vj ) = dj > 0 , por lo que no es nula, y que Q(vk ) = dk = 0 , por lo que no es definida
positiva.
d) y e) Análogos a los casos de definida y semidefinida positiva.
f) Por ser indefinida, Q( x ) 6≥ 0 para todo x , luego di 6≥ 0 para todo i , por lo que existirá un dj < 0
y Q( x ) 6≤ 0 para todo x , luego di 6≤ 0 para todo i por lo que existirá un dk > 0 . En consecuencia,
Sig(Q) = (p, q) con p, q > 0 .
Recı́procamente, si existe dj < 0 y dk > 0 , serán Q( vj ) = dj < 0 y Q( vk ) = dk > 0 , luego es indefinida.
Prof: José Antonio Abia Vian
Grados de Ing. Industrial : Curso 2012–2013

Documentos relacionados