Soluciones para el tercer parcial
Transcripción
Soluciones para el tercer parcial
PARCIAL II – ÁLGEBRA LINEAL SOLUCIONES JOHN GOODRICK Estas soluciones son para el tema “blanco.” Las soluciones para el tema “verde” son muy parecidas, pero OJO que en el Punto II, la matriz A si era diagonalizable en el tema verde (aunque tenia el mismo polinomio caracteristico y los mismos valores propios). Punto I. Sea W el subespacio vectorial de R3 definido como x 3 y ∈ R | 2x + y + 2z = 0 . W = z (i) Encuentre una base ortogonal BW para W . Solución: Para empezar, encontramos una base cualquiera para W . Fijese que se trata de un sistema lineal con tan solo una ecuación y tres variables, asi que podemos resolverlo por el proceso del capitulo 1: 2 1 2 | 0 ∼ 1 1/2 1 | 0 , que nos da que una solución general es x = −1/2y − z con las dos variables y, z libres (pues el primer “1” es un pivote). Por lo tanto, el espacio W , que es el espacio nulo de 2 1 2 , se puede escribir como −1/2y − z | y, z ∈ R y W = z −1/2 −1 = y · 1 + z · 0 | y, z ∈ R , 0 1 asi que una base para W es el conjunto de dos vectores −1 −1/2 1 , 0 . 0 1 1 2 JOHN GOODRICK (NOTA: Al calificar este punto, estuve muy decepcionado por la cantidad de estudiantes que no se aprovechaban de este proceso muy fundamental, y que, al parecer, trataban de adivinar una base para W al azar.) Ahora que tenemos una base para W , hallamos una base ortogonal para W usando el proceso Gram-Schmidt (véase la sección 6.2 del texto): si (~a1 , ~a2 ) es la base que acabamos de encontrar, entonces la base nueva será (~v1 , ~v2 ) donde ~v1 = ~a1 y −1 −1/2 0 · 1 −1 −1/2 1 0 ~a2 · ~v1 1 ~v2 = ~a2 − ~v1 = 0 − ~v1 · ~v1 −1/2 −1/2 1 0 1 · 1 0 0 −1 −1/2 −1 −1/5 −4/5 1/2 1 = 0 − 2/5 = −2/5 . = 0 − 5/4 1 0 1 0 1 Por lo tanto, una base ortogonal BW para W es −4/5 −1/2 1 , −2/5 . 0 1 (NOTA: No debe confundir el concepto de “base ortogonal para W ” con el concepto de “base para el complemento ortogonal W ⊥ de W ” !) (ii) Encuentre una base BW ⊥ para W ⊥ , el complemento ortogonal de W . Solución: Usando la primera base para W que encontramos en la parte (i) y el proceso explicado en la sección 6.1, notamos que W ⊥ es el espacio nulo de la matriz −1/2 1 0 C= −1 0 1 (cuyas filas son los dos vectores de esa base para W ). Ahora resolvemos el sistema lineal C · ~v = ~0: −1/2 1 0 | 0 −1/2 1 0 | 0 ∼ −1 0 1 | 0 0 −2 1 | 0 1 −2 0 | 0 1 0 −1 | 0 ∼ ∼ . 0 1 −1/2 | 0 0 1 −1/2 | 0 PARCIAL II – ÁLGEBRA LINEAL SOLUCIONES 3 Esto nos da que z W ⊥ = z/2 | z ∈ R z 1 1/2 = z· |z∈R , 1 asi que una base para W ⊥ es el conjunto de tan solo un vector 1 1/2 . 1 Este conjunto nos sirve para una base ortogonal BW ⊥ . No hay necesidad de aplicar el proceso Gram-Schmidt, pues hay solamente un vector! (iii) “Explique por qué el conjunto formado por la unión de BW y BW ⊥ es una base para R3 .” Solución: Hay varias explicaciones válidas. Sea B la unión de los dos conjuntos BW y BW ⊥ , es decir, 1 −4/5 −1/2 B = 1 , −2/5 , 1/2 . 1 1 0 Explicación 1: Primero, note que el conjunto B es ortogonal, pues los dos primeros vectores (de BW ) son ortogonales, y además el tercer vector (de BW ⊥ ) es ortogonal a cualquier vector en W , asi que en particular el tercer vector es ortogonal a cada uno de los primeros dos. Ahora notamos que cualquier conjunto ortogonal de vectores en Rn tal que cada miembro es distinto a ~0 será linealmente independente. (Este hecho se notó en la clase y en el capitulo 6 del texto.) Por lo tanto, B es linealmente independente. Ahora recordamos que cualquier conjunto de 3 vectores en R3 que es linealmente independiente generará R3 , asi que B es una base para R3 . Explicación 2: Note que todo vector ~v en R3 se puede escribir como ~v = ~vW + ~vW ⊥ donde ~vW está en W y ~vW ⊥ está en W ⊥ . (Este se observó en la sección 6.1 del texto.) Esto implica que la unión de W y W ⊥ genera R3 . Además, el conjunto B genera R3 , pues los dos vectores de BW generan W y el vector de BW ⊥ genera W ⊥ , asi que la unión B generará en su turno todo R3 por el hecho en negrito arriba. 4 JOHN GOODRICK Ahora todo conjunto de 3 vectores en R3 que genera R3 es linealmente independiente, y por lo tanto B es linealmente independente, y B es una base para R3 . “Explique geométricamente por qué λ = 1 es un valor propio de la matriz de proyección ortogonal sobre W .” Solución: Sea P la matriz de proyección ortogonal sobre W . Nota: Esto quiere decir que multiplicar un vector ~v en R3 por la matriz P nos da la proyección ortogonal sobre W . Esto no quiere decir que la matriz P es ortogonal, en el sentido de la sección 6.3! De hecho, la matriz P no es una matriz ortogonal. Si ~v es un vector cualquiera en W que no es igual a ~0, entonces P · ~v es la proyección ortogonal de ~v sobre W , que será igual a ~v (pues cuando el vector ~v ya esté en W , la proyección ortogonal no cambiará ~v ). En simbolos, P · ~v = ~v = 1 · ~v , y por la definición misma de “valor propio”, ~v es un vector propio de P con valor propio λ = 1. 1 (iv) Sea ~b = 1 ∈ R3 . Encuentre dos vectores ~bW ∈ W y ~bW ⊥ ∈ W ⊥ 1 tales que ~b = ~bW + ~bW ⊥ . Solución: Note que el vector ~bW será la proyección ortogonal de ~b sobre W y ~bW ⊥ será la proyección ortogonal de ~b sobre W ⊥ (como en la sección 6.1 del texto). La manera más fácil para encontrar estos vectores es la siguiente: calculamos ⊥ la proyección ~bW sobre W ⊥ , que resulta fácil ya que la dimensión de W ⊥ es uno. Usamos la fórmula para la proyección sobre una recta de la sección 6.1 para calucular: 1 1 1 · 1/2 1 1 1 1 5/2 ~bW ⊥ = 1/2 = 1/2 9/4 1 1 1 1 1/2 · 1/2 1 1 PARCIAL II – ÁLGEBRA LINEAL SOLUCIONES 5 10/9 = 5/9 . 10/9 Ahora que sabemos ~bW ⊥ , hallamos ~bW por subtracción: −1/9 ~bW = ~b − ~bW ⊥ = 4/9 . −1/9 Nota: Hay un par de otros métodos válidos para resolver este problema, pero resultaron más complicado. Por ejemplo, era posible calcular la matriz P de proyección sobre W (usando la fórmula en la sección 6.4) y entonces calcular ~bW = P · ~b. Sin embargo, esta calculación resultó mucho más larga. En general, no es recomendable calcular la matriz de proyección para hallar las proyecciones ortogonales; normalmente es mejor usar el método de la sección 6.1. 2. Considere la matriz 2 4 3 A = −4 −6 −3 . 3 3 1 1 −1 es vector propio de la matriz A (i) Demuestre que el vector ~x = 1 con valor propio λ = 1. Solution: Al calcular el producto A · ~x, encontramos que es igual a 2 4 3 1 2−4+3 1 −4 −6 −3 · −1 = −4 + 6 − 3 = −1 , 3 3 1 1 3−3+1 1 asi que A · ~x = ~x = 1 · ~x. (ii) Encuentre los demás valores propios de A. Solución: Usamos la ecuación carectaristica terminante por la tercera columna: 2−λ 4 3 −4 −6 − λ 0 = −4 −6 − λ −3 = 3 3 3 3 3 1−λ para A, y expandimos la de 2−λ 4 4 +3 +(1−λ) 2 − λ 3 3 −4 −6 − λ = 3 (−12 + 3λ + 18 − 3λ + 6 − 12) + (1 − λ) λ2 + 4λ + 4 6 JOHN GOODRICK = (3 · 0) + (1 − λ)(λ + 2)(λ + 2) = (1 − λ)(λ + 2)2 . Esto nos da que la única otra solución para la ecuación caracteristica es λ = −2. (iii) Diga si A es diagonalizable. Solución: Hay que verificar si para cada valor propio, la multiplicidad algebraica es igual a la multiplicidad geométrica. Para λ = −2, la multiplicidad algebraica es 2 (vea la factorización en la parte (ii) arriba). Para la multiplicidad geométrica, calculamos la dimensión del espacio nulo de A + 2I3 : 2+2 4 3 | 0 4 4 3 | 0 −4 −6 + 2 −3 | 0 = −4 −4 −3 | 0 3 3 1+2 | 0 3 3 3 | 0 4 4 3 | 0 4 4 3 | 0 ∼ 0 0 0 | 0 ∼ 0 0 3/4 | 0 , 0 0 0 | 0 0 0 3/4 | 0 que tiene 2 pivotes, asi que la dimensión del espacio nulo será 3 − 2 = 1. Ya que la multiplicidad geométrica para λ = −2 es 1 pero su multiplicidad algebraica es 2, la matriz A no es diagonalizable.