Anexo 4 (Demostraciones)
Transcripción
Anexo 4 (Demostraciones)
173 – Matemáticas 1 : Álgebra Lineal Anexo 4: Demostraciones Álgebra lineal Espacios vectoriales Demostración de: Propiedades 238 de la página 139 Propiedades 238.- Algunas propiedades que se deducen de las anteriores son: (i) 0u = 0 . (ii) k 0 = 0 . (iii) (−1)u = −u . (iv) k u = 0 ⇐⇒ k = 0 ó u = 0 . (v) El vector cero de un espacio vectorial es único. (vi) El vector opuesto de cada vector del espacio vectorial es único. Demostración: (i) Como 0u = (0 + 0)u = 0u + 0u , si sumamos a cada lado de la igualdad el opuesto de 0u , tenemos que 0 u + (−0 u ) = 0u + 0 u + (−0u ) luego 0 = 0u + 0 = 0u . (ii) Como k 0 = k( 0 + 0 ) = k 0 + k 0 , si sumamos a cada lado de la igualdad el opuesto de k 0 , tenemos que k 0 + (−k 0 ) = k 0 + k 0 + (−k 0 ) luego 0 = k 0 + 0 = k 0 . (v) Si w verifica que w + u = u , entonces w + u + (−u ) = u + (−u ) de donde w + 0 = 0 y w = 0 . En consecuencia, el vector cero es único. (vi) Si w verifica que w + u = 0 , entonces w + u +(−u ) = 0 +( −u ) de donde w + 0 = −u y w = −u . En consecuencia, el vector opuesto es único. (iii) Veamos que (−1)u es el opuesto u : u + (−1)u = 1u + (−1)u = (1 + (−1))u = 0u = 0 . (iv) Si k u = 0 y k 6= 0 , entonces 1 kku = 1 k 0 = 0 . Luego 0 = k1 k u = ( k1 k)u = 1u = u . La implicación en el otro sentido es evidente por (i) y (ii). Demostración de: Lema 245 de la página 141 Lema 245.- Si S es un conjunto linealmente independiente de vectores de V y v ∈ V −lin S , entonces S∪{ v } es linealmente independiente. Demostración: Sea S = { u1 , u2 , . . . , ur } es un conjunto linealmente independiente de vectores V y sea v ∈ V que no pertenece a lin S . Entonces, en la igualdad vectorial λ1 u1 + λ2 u2 + · · · + λr ur + λ v = 0 h 15.1i el coeficiente λ debe ser cero, pues si no lo es, podemos despejar v = − λλ1 u1 − λλ2 u2 − · · · − λλr ur y v estarı́a generado por los vectores de S , lo que no es cierto. Ahora bien, como λ = 0 , la ecuación 15.1 se reduce a λ1 u1 + λ2 u2 + · · · + λr ur = 0 y en consecuencia, todos los λi son cero por ser los vectores ui linealmente independientes. Demostración de: Lema 246 de la página 141 Lema 246.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier conjunto { v1 , v2 , . . . , vm } de vectores de V , con m > n, es linealmente dependiente. Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013 174 – Matemáticas 1 : Álgebra Lineal Anexo 4 Demostración: Sea B = { w1 , w2 , . . . , wn } la base de V . Cada vector vk del conjunto { v1 , v2 , . . . , vm } puede expresarse como combinación lineal de los vectores de B , en la forma vk = ak1 w1 + ak2 w2 + · · · + akn wn , para cada k = 1, . . . , m El conjunto es linealmente dependiente si la ecuación λ1 v1 + λ2 v2 + · · · + λm vm = 0 tiene múltiples soluciones. Sustituyendo: 0 = λ1 (a11 w1 + a12 w2 + · · · + a1n wn ) + λ2 (a21 w1 + a22 w2 + · · · + a2n wn ) + · · · + λm (am1 w1 + am2 w2 + · · · + amn wn ) = (λ1 a11 + λ2 a21 + · · · + λm am1 )w1 + (λ1 a12 + λ2 a22 + · · · + λm am2 )w2 + · · · + (λ1 a1n + λ2 a2n + · · · + λm amn )wn Como B es un conjunto linealmente independiente de vectores, se tiene el sistema lineal λ1 a11 + λ2 a21 + · · · + λm am1 = 0 λ1 a12 + λ2 a22 + · · · + λm am2 = 0 ··· ··· = 0 λ1 a1n + λ2 a2n + · · · + λm amn = 0 que tiene m incógnitas (los λk ) y n ecuaciones, con m > n, por lo que no tiene solución única. Demostración de: Proposición 250 de la página 141 Proposición 250.- Si V es un espacio vectorial, con dim V = n . Entonces, un conjunto de n vectores de V es base de V , b) si genera a V . a) si el conjunto es linealmente independiente, o Demostración: Sea S el conjunto de n vectores. Si S es linealmente independiente, tiene que generar V , pues si no: podrı́an añadirse vectores linealmente independientes con lo anteriores hasta formar una base de V (existirı́a al menos un vector vn+1 ∈ V − lin S , tal que S ∪ {vn+1 } es linealmente independiente, ver comentarios previos al Lema 246 anterior) que tendrı́a al menos n + 1 vectores, lo que es absurdo. Análogamente si S genera V , tiene que ser linealmente independiente, pues si no: podrı́an eliminarse vectores dependientes de S hasta conseguir una base que tendrı́a menos de n vectores (Lema 243), lo que también es absurdo. Demostración de: Desigualdad de Cauchy-Schwarz 260 de la página 145 Desigualdad de Cauchy-Schwarz 260.- Para todo u , v ∈ V, espacio con producto interior, se tiene 2 h u , v i2 ≤ ku k k v k 2 |hu , v i| ≤ k u k kv k . o en la forma Demostración: 2 2 Si v = 0 , es claro que 0 = h u , 0 i2 ≤ ku k k0 k = 0 , ∀ u ∈ V . Si v 6= 0 , para todo k ∈ R , se verifica que 2 0 ≤ ku − k v k = h u − k v , u − k v i = h u , u i − 2kh u , v i + k 2 h v , v i en particular, para k = hu, vi hv, vi . Luego 0 ≤ hu, ui − 2 de donde hu, vi2 kvk2 Demostración de: Prof: José Antonio Abia Vian 2 ≤ ku k hu, vi hu, vi2 hu, vi2 hu, vi2 hu, vi + hv, vi = hu, ui − 2 + hv, vi hv, vi2 hv, vi hv, vi 2 hu, vi hu, vi2 2 = hu, ui − = kuk − 2 hv, vi kvk y por consiguiente 2 2 hu, vi2 ≤ ku k kvk . Teorema 268 de la página 146 Grados de Ing. Industrial : Curso 2012–2013 175 – Matemáticas 1 : Álgebra Lineal Anexo 4 Teorema 268.- Si S = {v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos, entonces S es linealmente independiente. Demostración: Veamos que en la igualdad λ1 v1 + · · · + λi vi + · · · + λk vk = 0 , cada λi tiene que ser cero: 0 = hvi , 0i = hvi , λ1 v1 + · · · + λi vi + · · · + λk vk i = λ1 hvi , v1 i + · · · + λi hvi , vi i + · · · + λk hvi , vk i 2 = 0 + · · · + λi hvi , vi i + · · · + 0 = λi kvi k como vi 6= 0 , su norma no es cero por lo que tiene que ser λi = 0 . Demostración de: Lema 273 de la página 147 Lema 273.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormal de W . Entonces para cada v ∈ V , el vector v −ProyW (v ) es ortogonal a cada vector de W . Demostración: Por la Proposición 267, para probar que un vector es ortogonal a todos los vectores de un subespacio, basta probarlo para los vectores de una base. Sea B = { w1 , w2 , . . . , wk }, para cada wi de B , por ser B ortonormal, h wi , wi i = 1 y h wi , wj i = 0 , si i 6= j , entonces hv−ProyW (v), wi i = hv − hv, w1 iw1 − · · · − hv, wi iwi − · · · − hv, wk iwk , wi i = hv, wi i − hv, w1 ihw1 , wi i − · · · − hv, wi ihwi , wi i − · · · − hv, wk ihwk , wi i = hv, wi i − 0 − · · · − hv, wi i · 1 − · · · − 0 = hv, wi i − hv, wi i = 0 Luego es ortogonal a los vectores de B y, por consiguiente, a todos los vectores de W . Unicidad de la proyección ortogonal.- Sea V un espacio con producto interior y W un subespacio de V . Para cada v ∈ V , la proyección ortogonal de v en W no depende de la base ortonormal elegida. Es decir, si B1 = { u1 , u2 , . . . , uk } y B2 = { v1 , v2 , . . . , vk } son dos bases ortonormales de W , entonces, para cada v ∈ V , los vectores (1) ProyW (v) = w1 = hv, u1 iu1 + hv, u2 iu2 + · · · + hv, uk iuk (2) ProyW (v) = w2 = hv, v1 iv1 + hv, v2 iv2 + · · · + hv, vk ivk son el mismo. Demostración: Como w1 es una proyección ortogonal de v sobre W , el vector w1 ∈ W y el vector v − w1 es ortogonal a W y, por la misma razón, el vector w2 ∈ W y el vector v − w2 es ortogonal a W . Entonces, el vector (v − w1 ) − ( v − w2 ) = w2 − w1 cumple que: es ortogonal a todos los vectores de W por ser diferencia de dos vectores ortogonales a W ; y también es un vector de W por ser diferencia de dos vectores de W . En consecuencia, es ortogonal a si mismo y h w2 − w1 , w2 − w1 i = 0 , luego es el vector 0 ; por lo que w1 = w2 y la proyección ortogonal no depende de la base. Aplicaciones lineales Justificación del método descrito en la Observación 285, de la página 154 Usaremos en la justificación el mismo ejercicio del ejemplo, pero la prueba es válida en cualquier caso. t Haciendo las operaciones tiene por filas las [f (vi )]B2 , hemos obtenido la elementales sobre la matriz A , que [f (v1 )]B2 [f (v6 − v1 )]B2 [f (v 5 − v6 + v1 )]B2 matriz que tiene por filas 1 3 3 . Luego si repetimos las mismas operaciones v − v − v )] [f (v + 4 2 1 2 6 2 5 B2 [f (v3 + v6 + 2v5 )]B2 [f (v2 − 2v6 − v5 )]B2 Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013 176 – Matemáticas 1 : Álgebra Lineal Anexo 4 [v1 ]B1 [v2 ]B1 [v3 ]B1 [v4 ]B1 [v5 ]B1 [v6 ]B1 sobre la matriz J que tiene por filas [v1 ]B1 [v − v1 ]B1 6 [v − v + v1 ]B1 5 6 obtendrı́amos K = [v4 + 1 v1 − 3 v6 − 3 v5 ]B1 2 2 2 [v3 + v6 + 2v5 ]B1 [v2 − 2v6 − v5 ]B1 . Ahora bien, como la matriz J es la identidad, que tiene rango 6, la matriz K también tiene rango 6, por lo que sus filas son linealmente independientes y en consecuencia los tres últimos vectores (los vectores de ker(f ) ) también son linealmente independientes. Diagonalización Justificación de la observación en Antes de seguir de la página 160 Definición.- Sea f : V −→ V un operador lineal, diremos que un escalar λ es un valor propio de f si existe un vector v ∈ V , diferente de cero, tal que f (v) = λv . Al vector v se le denomina vector propio de f correspondiente a λ . Teorema.- Sea f : V −→ V un operador lineal, siendo V un espacio vectorial de dimensión n . Entonces, existe una base de V con respecto a la cual la matriz de f es diagonal si y sólo si f tiene n vectores propios linealmente independientes. Demostración: Si la matriz de f en la base B = {v1 , v2 , . . . , v1 } es D diagonal, los mismos vectores de la base son vectores propios y son linealmente independientes, pues: [f (v1 )]B [f (v2 )]B ··· [f (vn )]B =D= λ1 0 · · · 0 0 λ2 · · · 0 λ1 [v1 ]B = .. .. . . . . .. . . 0 0 · · · λn λ2 [v2 ]B ··· λn [vn ]B Recı́procamente, si tenemos n vectores propios linealmente independientes, la matriz de f respecto de la base formada con ellos es diagonal. [f (v1 )]B [f (v2 )]B ··· [f (vn )]B = λ1 [v1 ]B λ2 [v2 ]B ··· λn [vn ]B = λ1 0 · · · 0 0 λ2 · · · 0 .. .. . . . . .. . . 0 0 · · · λn Teorema.- Sean V un espacio vectorial de dimensión n , f : V −→ V un operador lineal y A la matriz de f con respecto a una base B = {v1 , v2 , . . . , vn } . Entonces: a) Los valores propios de f son los valores propios de A b) Un vector v ∈ V es un vector propio de f correspondiente al valor propio λ si y sólo si su matriz de coordenadas [v]B es un vector propio de A correspondiente a λ . Demostración: a) Sea λ un valor propio de f , es decir, ∃v ∈ V , distinto de 0 , tal que f (v) = λv =⇒ [f (v)]B = [λv]B =⇒ A[v]B = λ[v]B , luego λ es un valor propio de A al ser [v]B 6= 0 . Sea λ un valor propio de A, entonces ∃x ∈ Rn , x 6= 0 tal que Ax = λx . Si tomamos x∗ = x1 v1 + · · · + xn vn , siendo x = (x1 , . . . , xn ) , lo anterior quiere decir que A[x∗ ]B = λ[x∗ ]B ⇒ [f (x∗ )]B = [λx∗ ]B ⇒ f (x∗ ) = λx∗ y λ es un valor propio de f ya que x∗ 6= 0 b) v es un vector propio de f correspondiente a λ si y sólo si f (v) = λv ⇐⇒ [f (v)]B = [λv]B ⇐⇒ A[v]B = λ[v]B si y sólo si [v]B es un vector propio de A correspondiente a λ . Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013 177 – Matemáticas 1 : Álgebra Lineal Anexo 4 Teorema.- Los vectores propios de f correspondientes al valor propio λ , son los vectores distintos de cero del núcleo de la aplicación λId − f (denotamos por Id la aplicación identidad, Id (v ) = v ). Llamaremos a dicho núcleo, espacio caracterı́stico de f correspondiente al valor propio λ . Demostración: v un vector propio correspondiente a λ ⇐⇒ f (v) = λv ⇐⇒ f (v) = λId (v) ⇐⇒ λId (v) − f (v) = 0 ⇐⇒ (λId − f )(v) = 0 ⇐⇒ v ∈ ker(λId − f ) . Demostración de: Teorema 301 de la página 160 Teorema 301.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios λ1 , λ2 , . . . , λk respectivamente, siendo λi 6= λj , ∀ i 6= j . Entonces el conjunto de vectores { v1 , v2 , . . . , vk } es linealmente independiente. Demostración: Supongamos que v1 , v2 , . . . , vk son linealmente dependientes. Por definición, un vector propio es distinto de cero, luego el conjunto {v1 } es linealmente independiente. Sea r el máximo entero tal que {v1 , v2 , . . . , vr } es linealmente independiente. Puesto que hemos supuesto que { v1 , v2 , . . . , vk } es linealmente dependiente, r satisface que 1 ≤ r < k . Además, por la manera en que se definió r , {v1 , v2 , . . . , vr , vr+1 } es linealmente dependiente. Por tanto, existen escalares c1 , c2 , . . . , cr+1 , al menos uno diferente de cero, tales que c1 v1 + c2 v2 + · · · + cr+1 vr+1 = 0 . h 15.2i Multiplicando en ambos lados de la igualdad por A y haciendo las sustituciones Av1 = λ1 v1 , Av2 = λ2 v2 , . . . , A vr+1 = λr+1 vr+1 se obtiene c1 λ1 v1 + c2 λ2 v2 + · · · + cr λr vr + cr+1 λr+1 vr+1 = 0 h 15.3i Multiplicando los dos lados de (15.2) por λr+1 y restándole a (15.3) la ecuación resultante se obtendrá c1 (λ1 − λr+1 ) v1 + c2 (λ2 − λr+1 ) v2 + · · · + cr (λr − λr+1 )vr = 0 . Y dado que los vectores v1 , v2 , . . . , vr son linealmente independientes, necesariamente c1 (λ1 − λr+1 ) = c2 (λ2 − λr+1 ) = · · · = cr (λr − λr+1 ) = 0 Como los λ1 , λ2 , . . . , λr+1 son distintos entre si, se deduce que c1 = c2 = · · · = cr = 0 . Sustituyendo estos valores en (15.2) resulta que cr+1 vr+1 = 0 , y como vr+1 6= 0 se deduce que cr+1 = 0 , lo que contradice el hecho de que al menos uno de los escalares c1 , c2 , . . . , cr+1 debı́a de ser distinto de cero. Luego los vectores v1 , v2 , . . . , vk han de ser linealmente independientes, que prueba el teorema. Demostración de: Proposición 303 de la página 161 Proposición 303.- Sea A de orden n y λk un autovalor de A de multiplicidad mk . Entonces 1 ≤ dim V (λk ) ≤ mk . Demostración: Como ya observamos anteriormente, dim V (λi ) ≥ 1 . Supongamos que dim V (λk ) = d , y consideremos el operador lineal f : Rn −→ Rn definido por f ( v ) = A v . Sea { v1 , . . . , vd } una base del espacio caracterı́stico V (λk ) , que podemos completar hasta obtener una base de Rn , B = { v1 , . . . , vd , vd+1 , . . . , vn } . La matriz A0 , del operador en la base B , será de la forma A0 = [f (v1 )]B ··· [f (vd )]B [f (vd+1 )]B ··· [f (vn )]B = Prof: José Antonio Abia Vian λk [v1 ]B ··· λk [v2 ]B [f (vd+1 )]B ··· [f (vn )]B = λk .. . 0 0 .. . 0 ··· 0 . .. . .. A012 · · · λk ··· 0 . · · · .. A022 ··· 0 Grados de Ing. Industrial : Curso 2012–2013 178 – Matemáticas 1 : Álgebra Lineal Anexo 4 de donde |λI −A0 | = (λ−λk )d |λI −A022 |. Pero como A y A0 son matrices semejantes, tienen el mismo polinomio caracterı́stico, y (λ − λk )d |λI − A022 | = |λI − A0 | = |λI − A| = (λ − λk )mk Q(λ) , de donde se obtiene que d ≤ mk , pues mk es la multiplicidad de la raı́z. Demostración de: Teorema fundamental de la diagonalización 304 de la página 161 Teorema fundamental de la diagonalización 304.- Sea A una matriz de orden n . Entonces A es diagonalizable si y sólo si se cumplen las condiciones: 1.- El polinomio caracterı́stico tiene n raices reales. Es decir, |λI − A| = (λ − λ1 )m1 · · · (λ − λk )mk con m1 + m2 + · · · + mk = n . 2.- Para cada espacio caracterı́stico V (λi ) , se cumple que dim V (λi ) = mi . Demostración: =⇒ Si A es diagonalizable, la matriz diagonal D y A son semejantes ( D = P −1 AP ) y por tanto poseen el mismo polinomio caracterı́stico, luego P (λ) = |λI − A| = |λI − D| = (λ − λ1 )m1 · · · (λ − λk )mk , donde los λi ∈ R son los valores de la diagonal de D y mi el número de veces que se repite. Por tanto, P (λ) tiene todas sus raices reales y, por ser de grado n , m1 + m2 + · · · + mk = n . Además, por ser A y D matrices semejantes, también lo son λI − A y λI − D , para todo λ ∈ R , pues P −1 (λI − A)P = λP −1 IP − P −1 AP = λI − D , de donde rg(λI−A) = rg(λI−D) , para todo λ . Entonces, para cada autovalor λi se tiene que rg(λi I − A) = rg(λi I − D) = n − mi y, en consecuencia, que dim V (λi ) = mi . ⇐= Si |λI − A| = (λ − λ1 )m1 · · · (λ − λk )mk , con m1 + m2 + · · · + mk = n , y dim V (λi ) = mi para cada i = 1, . . . , k , consideremos en cada V (λi ) una base Bi , de la forma n o n o n o B1 = p , . . . , pm , B2 = p , . . . , pm , . . . , Bk = pk , . . . , pkmk Tomemos entonces B = B1 ∪B2 ∪· · ·∪Bk , un conjunto de n vectores propios de A, si vemos que son linealmente independientes, tendremos que A es diagonalizable. Planteemos una combinación lineal igualada a cero: 0 = β11 p + · · · + β1m1 pm + β21 p + · · · + β2m2 pm + · · · + βk1 pk + · · · + βkmk pkmk = (β11 p + · · · + β1m1 pm ) + (β21 p + · · · + β2m2 pm ) + · · · + (βk1 pk + · · · + βkmk pkmk ) = v1 + v2 + · · · + vk siendo vj = βj1 pj + · · · + βjmj pjmj ∈ V (λj ) , para cada j = 1, . . . , k . Los vectores v1 , v2 , . . . , vk son vectores de espacios caracterı́sticos correspondientes, respectivamente, a los valores propios distintos λ1 , λ2 , . . . , λk y por tanto, si no son cero, son linealmente independientes. Pero la combinación lineal v1 + v2 + · · · + vk = 0 nos indicarı́a que son dependientes, luego la única forma de eliminar esa contradicción es que vj = 0 , ∀j = 1, 2, . . . , k ; de donde, si 0 = vj = βj1 pj + · · · + βjmj pjmj , han de ser todos βj1 = βj2 = · · · = βjmj = 0 por ser Bj una base. Como es cierto para cada j , se tiene que βji = 0 , ∀ i, j , con lo que B es linealmente independiente. Demostración de: Teorema fundamental de la diagonalización ortogonal 308 de la página 162 Teorema fundamental de la diagonalización ortogonal 308.- Una matriz A de orden n es diagonalizable ortogonalmente si y sólo si A es simétrica. . Demostración: =⇒ A es diagonalizable ortogonalmente =⇒ ∃P ortogonal y D diagonal tal que P t AP = D =⇒ ∃P ortogonal y D diagonal tal que A = P DP t =⇒ At = (P DP t )t = P DP t = A =⇒ A es simétrica. ⇐= Sea A simétrica, veamos que es diagonalizable. Primero, que todos los valores propios de A son reales: Sea λ ∈ C un valor propio de A , entonces existe x = (x1 , . . . , xn ) 6= 0 ( xj ∈ C) tal que Ax = λ x . Por ser A real, su polinomio caracterı́stico es real y el conjugado de λ, λ, es también autovalor de A; además, tomando conjugados en la igualdad anterior, se tiene que A x = Ax = λ x . Entonces, son iguales los valores xt Ax = xt (Ax) = xt (λx) = λxt x = λ n X xj xj = λ j=1 t t t t t n X 2 |xj | j=1 t t x Ax = (x A)x = (x A )x = (Ax) x = (λx) x) = λx x = λ n X |xj | 2 j=1 Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013 179 – Matemáticas 1 : Álgebra Lineal y, al ser x 6= 0 , n P Anexo 4 2 |xj | 6= 0 por lo que λ = λ y λ ∈ R. En consecuencia, si todos los autovalores de A son j=1 reales, el polinomio caracterı́stico de A tiene las n raices reales. Veamos ahora que para cada λj se verifica que dim V (λj ) = mj . Sean dim V (λj ) = d y Bj = { x1 , . . . , xd } una base ortonormal de V (λj ) que ampliamos hasta una base ortonormal de Rn , B = { x1 , . . . , xd , xd+1 , . . . , xn } . Consideremos el operador lineal f : Rn −→ Rn dado por f ( x ) = Ax , luego A es la matriz de f en la base canónica que es ortonormal y si A0 es la matriz de f en la base B y P la matriz de paso de B a la canónica, P es ortogonal y A0 = P t AP . Como A es simétrica, A0 tambien lo será pues (A0 )t = (P t AP )t = P t At (P t )t = P t AP = A0 . 0 [f (x )] · · · [f (x )] [f (x )] · · · [f (x )] A = 1 B d B d+1 B n B λj · · · 0 .. . . .. . . A012 . 0 · · · λj = λj [x1 ]B · · · λj [x2 ]B [f (xd+1 )]B · · · [f (xn )]B = 0 ··· 0 . . .. · · · .. A0 22 0 ··· 0 donde A012 = 0 , puesto que A0 es simétrica y A022 cuadrada de orden n − d . Luego la matriz λj I − A0 nos queda λj − λj · · · 0 0 ··· 0 .. . . .. .. .. .. . . . . 0 0 . . 0 · · · λ − λ 0 · · · 0 j j 0 λj I − A = = 0 ··· 0 0 · · · 0 . .. .. . . . 0 0 λj I − A22 . ··· . . · · · . λj I − A22 0 ··· 0 0 ··· 0 por lo que rg(λj I −A0 ) = rg(λj I −A022 ) . Por ser A y A0 semejantes rg(λj I −A) = rg(λj I −A0 ) (ver demostración del Teorema 304), y se tiene que rg(λj I −A022 ) = rg(λj I −A) = n−dim V (λj ) = n−d por lo que |λj I − A022 | = 6 0. Entonces, |λI − A| = |λI − A0 | = (λ − λj )d |λI − A022 | , con |λj I − A022 | = 6 0 , luego d = mj . En resumen, A diagonaliza, y tomando una base ortonormal de cada uno de los espacios caracterı́sticos, tendremos n vectores propios de norma 1 y, que por el Lema 307, son ortogonales entre sı́. Formas cuadráticas Demostración de: Teorema de Sylvester o Ley de inercia 319 de la página 169 Teorema de Sylvester o Ley de inercia 319.- Si una forma cuadrática se reduce a la suma de cuadrados en dos bases diferentes, el número de términos que aparecen con coeficientes positivos, ası́ como el número de términos con coeficientes negativos es el mismo en ambos casos. Demostración: Supongamos que respecto a una base B1 = { b1 , b2 , . . . , bn } la matriz de la forma cuadrática Q es una matriz diagonal y tiene p elementos positivos y s elementos negativos en su diagonal principal, luego la expresión de la forma cuadrática será Q(x ) = a1 x21 + · · · + ap x2p − ap+1 x2p+1 − · · · − ap+s x2p+s con ai > 0 para todo i , y (x1 , . . . , xp , xp+1 , . . . , xp+s , xp+s+1 , . . . , xn ) = [x ]tB1 ; y que respecto a otra base B2 = {d1 , d2 , . . . , dn } la matriz de la forma cuadrática es también diagonal con q elementos positivos y r negativos, por lo que Q se expresará en la forma 2 2 Q( x ) = c1 y12 + · · · + cq yq2 − cq+1 yq+1 − · · · − cq+r yq+r con ci > 0 para todo i, e (y1 , . . . , yq , yq+1 , . . . , yq+r , yq+r+1 , . . . , yn ) = [x ]tB2 . Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013 180 – Matemáticas 1 : Álgebra Lineal Anexo 4 Por el teorema 317 anterior, sabemos que las matrices congruentes tienen el mismo rango, luego tienen que ser p + s = q + r . Veamos que p = q , con lo que tendremos también que s = r . Si p 6= q , uno de ellos es mayor que el otro, supongamos que es p > q y consideremos los conjuntos de vectores { b1 , . . . , bp } y { dq+1 , . . . , dn } . Si p > q , el conjunto {b1 , . . . , bp , dq+1 , . . . , dn } tiene p+(n−q) = n + (p − q) > n vectores y, por lo tanto, es un conjunto linealmente dependiente y en la igualdad λ1 b1 + · · · + λp bp + µq+1 dq+1 + · · · + µn dn = 0 alguno de los coeficientes no es cero. Entonces, el vector λ1 b1 + · · · + λp bp = −µq+1 dq+1 − · · · − µn dn = x no es el cero (si es cero, todos los λi son cero por ser los bi de B1 , y todos los µj = 0 por ser los dj ∈ B2 ), con algún λi y algún µj distintos de cero. Tenemos ası́ que [x ]tB1 = (λ1 , . . . , λp , 0, . . . , 0) y [x ]tB2 = (0, . . . , 0, −µq+1 , . . . , −µn ) pero calculando Q( x ) respecto a las dos bases obtenemos Q(x) = a1 λ21 + · · · + ap λ2p − ap+1 0 − · · · − ap+s 0 = a1 λ21 + · · · + ap λ2p > 0 Q(x) = c1 0 + · · · + cq 0 − cq+1 (−µq+1 )2 − · · · − cq+r (−µq+r )2 + 0(−µq+r+1 )2 + · · · + 0(−µn )2 = −cq+1 (−µq+1 )2 − · · · − cq+r (−µq+r )2 ≤ 0 lo que no puede ser. Por tanto deben ser p = q y s = r , es decir, las dos matrices diagonales tienen el mismo número de elementos positivos y negativos. Demostración de: Teorema de clasificación 322 de la página 169 Teorema de clasificación 322.- Sea Q una forma cuadrática en un espacio de dimensión n . Se verifica: a) Q es nula ⇐⇒ Sig(Q) = (0, 0) b) Q es definida positiva ⇐⇒ Sig(Q) = (n, 0) . c) Q es semidefinida positiva ⇐⇒ Sig(Q) = (p, 0) con 0 < p < n . d) Q es definida negativa ⇐⇒ Sig(Q) = (0, n) . e) Q es semidefinida negativa ⇐⇒ Sig(Q) = (0, q) con 0 < q < n . f) Q es indefinida ⇐⇒ Sig(Q) = (p, q) con 0 < p, q . Demostración: Sea B = {v1 , . . . , vn } una base en la cual, la expresión de Q es Q(x ) = d1 x21 + d2 x22 + · · · + dn x2n donde (x1 , . . . , xn ) = [ x ]tB . Luego, Q(vi ) = di , para todo i = 1, . . . , n , ya que los vectores de B tiene por coordenadas [ v1 ]tB = (1, 0, 0, . . . , 0) , [ v2 ]tB = (0, 1, 0, . . . , 0) , . . . , [vn ]tB = (0, 0, 0, . . . , 1) . Entonces: a) Si Q( x ) = 0 , para todo x , se tiene que di = Q(vi ) = 0 , para todo i, luego Sig(Q) = (0, 0) . Reciprocamente, si di = 0 para todo i , entonces Q(x ) = 0 para todo x . b) Si Q( x ) > 0 para todo x 6= 0 , se tiene que di = Q(vi ) > 0 , para todo i, luego Sig(Q) = (n, 0) . Recı́procamente, si di > 0 para todo i , entonces Q(x ) > 0 para todo x 6= 0 . c) Si Q(x ) ≥ 0 para todo x 6= 0 , es di = Q( vi ) ≥ 0 para todo i. Como no es nula existe algún dj > 0 y como no es definida positiva existe algún dk = 0 , luego Sig(Q) = (p, 0) con 0 < p < n . Recı́procamente, si di ≥ 0 para todo i, con algún dj > 0 y algún dk = 0 , se tiene que Q( x ) ≥ 0 para todo x , que Q( vj ) = dj > 0 , por lo que no es nula, y que Q(vk ) = dk = 0 , por lo que no es definida positiva. d) y e) Análogos a los casos de definida y semidefinida positiva. f) Por ser indefinida, Q( x ) 6≥ 0 para todo x , luego di 6≥ 0 para todo i , por lo que existirá un dj < 0 y Q( x ) 6≤ 0 para todo x , luego di 6≤ 0 para todo i por lo que existirá un dk > 0 . En consecuencia, Sig(Q) = (p, q) con p, q > 0 . Recı́procamente, si existe dj < 0 y dk > 0 , serán Q( vj ) = dj < 0 y Q( vk ) = dk > 0 , luego es indefinida. Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013