Capítulo 5 Transformaciones Lineales.
Transcripción
Capítulo 5 Transformaciones Lineales.
127 . Capítulo 5 TRANSFORMACIONES LINEALES Martínez Héctor Jairo Sanabria Ana María Semestre 02, 2.007 5.1. Introducción Recordemos que una función T : A −→ B es una “regla de asociación” entre los elementos de A y los elementos de B, tal que a cada elemento a de A se le asocia un único elemento b de B al que le llamamos imagen de a por medio de T y denotamos b = T (a). A los conjuntos A y B les llamamos dominio y codominio de T , respectivamente, y al subconjunto de B formado por todas las imágenes de los elementos de A lo llamamos conjunto imagen de T y lo denotamos Im(T ). En este capítulo, estamos interesados en el estudio de las funciones entre espacios vectoriales que sean “compatibles” con las operaciones de suma y multiplicación por escalar definidas en cada uno de ellos; es decir, que la imagen de una suma de vectores sea la suma de las imágenes y que la imagen de una multiplicación por escalar de un vector sea también una multiplicación por escalar de la imagen del vector. 5.2. Definición y Propiedades Básicas Precisemos la idea planteada en la introducción con la siguiente definición. Definición 1: [Transformación Lineal ] Dados dos espacios vectoriales V y W , diremos que la función T : V −→ W es una transformación lineal de V en W si 1. T (v1 + v2 ) = T (v1 ) + T (v2 ) para todo v1 , v2 ∈ V . (Propiedad aditiva) 2. T (λv1 ) = λT (v1 ) para todo v1 ∈ V y todo λ ∈ R. (Propiedad homogénea) Observación: Es importante aclarar que estamos denotando de la misma forma la suma y el producto por escalar definidos tanto en el espacio vectorial V como en el espacio vectorial W , asi sean operaciones diferentes. Igualmente, el vector 0 de V y el de W los denotaremos igual, asi sean vectores diferentes. 128 CAPÍTULO 5. TRANSFORMACIONES LINEALES 129 µ ¶ x x − 2y 3 2 y Ejemplo 1: Consideremos la función T : R −→ R , tal que T = . Verifiquemos que T 2z − x z es una transformación lineal. Veamos que T satisface la propiedad aditiva. Sean (x1 , y1 , z1 )T y (x2 , y2 , z2 )T vectores de R3 , entonces µ ¶ x1 + x2 x2 x1 (x1 + x2 ) − 2(y1 + y2 ) y1 + y2 y2 y1 = = T + T 2(z1 + z2 ) − (x1 + x2 ) z1 + z2 z2 z1 µ ¶ (x1 − 2y1 ) + (x2 − 2y2 ) = (2z1 − x1 ) + (2z2 − x2 ) µ ¶ µ ¶ x1 − 2y1 x2 − 2y2 = + 2z1 − x1 2z2 − x2 x2 x1 = T y1 + T y2 . z2 z1 Para verificar que T satisface la propiedad homogénea, tomemos el escalar λ y el vector (x, y, z)T . Entonces x λx T λ y = T λy z λz µ ¶ (λx) − 2(λy) = 2(λz) − (λx) µ ¶ x − 2y = λ 2z − x x = λT y . z ¤ a Ejemplo 2: Sea T: R3 −→ P2 , tal que T b = (a + c)x + 2bx2 . Veamos que T es una transformación c lineal. Para probar la propiedad aditiva, tomemos dos vectores de R3 , (a1 , b1 , c1 )T y (a2 , b2 , c2 )T . Entonces, a1 + a2 a2 a1 T b1 + b2 = T b1 + b2 c1 + c2 c2 c1 = [(a1 + a2 ) + (c1 + c2 )]x + 2(b1 + b2 )x2 = [(a1 + c1 )x + 2b1 x2 ] + [(a2 + c2 )x + 2b2 x2 ] a2 a1 = T b1 + T b2 . c2 c1 Para verificar que T satisface la propiedad homogénea, tomemos el escalar λ y el vector (a, b, c)T . Entonces λa a T λ b = T λb λc c CAPÍTULO 5. TRANSFORMACIONES LINEALES 130 = (λa + λc)x + 2λbx2 = λ[(a + c)x + 2bx2 ] a = λT b . c Ejemplo 3: Sea T R2 −→ P2 , tal que T lineal. µ a b ¶ ¤ = 1 + ax + 2bx2 . Determinemos si T es una transformación Para probar la propiedad aditiva, tomemos dos vectores de R2 , (a1 , b1 )T y (a2 , b2 )T . Entonces, ·µ ¶ µ ¶¸ µ ¶ a1 a2 a1 + a2 T + =T = 1 + (a1 + a2 )x + 2(b1 + b2 )x2 , b1 b2 b1 + b 2 pero T µ a1 b1 ¶ +T µ a2 b2 ¶ = (1 + a1 x + 2b1 x2 ) + (1 + a2 x + 2b2 x2 ) = 2 + (a1 + a2 )x + 2(b1 + b2 )x2 , de donde, T ·µ a1 b1 ¶ + µ por tanto, T no es una transformación lineal. a2 b2 ¶¸ 6= T µ a1 b1 ¶ n +T Ejemplo 4: Sea A una matriz m × n y sea la función T : R −→ R T es una transformación lineal. µ m a2 b2 ¶ ; ¤ tal que T (x) = Ax. Determinemos si Por el Teorema 2 del Capítulo 2, dados x, y ∈ Rn y λ ∈ R, A(x + y) = Ax + Ay y A(λx) = λAx, de donde concluimos que T es una transformación lineal. ¤ A las transformaciones como la del Ejemplo 4, las llamamos transformaciones matriciales. Veremos que todas las transformaciones lineales de Rn en Rm son matriciales. Por ejemplo, notemos que la transformación lineal del Ejemplo 1 es una transformación matricial: µ ¶ µ ¶ µ ¶ µ ¶ µ ¶ x x x − 2y 1 −2 0 1 −2 0 y , =x +y +z = T y = 2z − x −1 0 2 −1 0 2 z z y por el resultado del Ejemplo 4, esto seria suficiente para demostrar que T es una transformación lineal. Ejemplo 5: Verifiquemos que la función que a cada punto de R2 le asigna el punto de su reflexión a través del Eje X es una transformación lineal. y 6 (2, 1) * (a, b) * -x * (2, −1) * (a, −b) Reflexión en el plano a través del Eje X CAPÍTULO 5. TRANSFORMACIONES LINEALES 131 De la figura anterior, es fácil ver que la función en cuestión es T : R2 −→ R2 , donde T Por lo tanto, T µ a b ¶ =a µ 1 0 ¶ +b µ 0 −1 ¶ = µ 1 0 0 −1 ¶µ a b ¶ µ a b ¶ = µ a −b ¶ . , lo que muestra que T es una transformación matricial y por consiguiente una transformación lineal. ¤ Ejemplo 6: Sea la función T : V −→ W tal que T (v) = 0 para todo v ∈ V . Verifiquemos que T es una transformación lineal. Sean v1 y v2 vectores de V . Por ser V un espacio vectorial, v1 +v2 está en V y por tanto, T (v1 +v2 ) = 0. De otro lado, T (v1 )+T (v2 ) = 0+0 = 0, de donde concluimos que la propiedad aditiva se satisface. Queda como ejercicio para el lector verificar la propiedad homogénea. A esta transformación la llamamos transformación nula. ¤ Ejemplo 7: Sea la función T : V −→ V tal que T (v) = v para todo v ∈ V . Es fácil verificar que T es una transformación lineal, lo que dejamos como ejercicio para el lector. A esta transformación la llamamos transformación idéntica. ¤ Podemos ver que las propiedades que caracterizan a una transformación lineal nos permiten demostrar que la imagen de una combinación lineal de vectores por medio de una transformación lineal es la combinación lineal de las imágenes de los vectores con los mismos coeficientes de la combinación lineal inicial. La demostración consiste básicamente en aplicar la propiedad aditiva iteradamente y luego aplicar la propiedad homogénea a cada sumando. Teorema 1 Sean T : V −→ W una transformación lineal, v1 , v2 , . . . , vn vectores de V y λ1 , λ2 , . . . , λn escalares de R. Entonces T (λ1 v1 + λ2 v2 + . . . + λn vn ) = λ1 T (v1 ) + λ2 T (v2 ) + . . . + λn T (vn ). De este resultado, se tiene trivialmente que una transformación lineal asigna el vector cero del dominio en el vector cero del codominio y, por su importancia, lo enunciamos en el siguiente corolario. Corolario 1.1 Sea T : V −→ W una transformación lineal, entonces T (0) = 0. El Teorema 1 también establece que, para el caso de las transformaciones lineales de Rn a Rm , las rectas son enviadas en rectas o en el vector 0 y los planos son enviados en planos, en rectas o en el vector 0. En general, el Teorema 1 permite demostrar que una transformación lineal asigna a un subespacio del dominio un subespacio del codominio (Ver ejercicios). Recordemos que dos funciones definidas sobre un mismo dominio y codominio son iguales, si y solo si, tienen las mismas imágenes para todos y cada uno de los elementos del dominio. Aunque una transformación lineal es una función, sus características especiales simplifican enormemente la propiedad de igualdad entre transformaciones, como lo expresamos en el siguiente teorema. Teorema 2 Sean B = {v1 , v2 , . . . , vn } una base del espacio vectorial V y T : V −→ W y S : V −→ W dos transformaciones lineales. T = S, si y solo si, S(v1 ) = T (v1 ), S(v2 ) = T (v2 ), . . . , S(vn ) = T (vn ). Demostración: Por la igualdad entre funciones, es claro que si T = S, las imágenes de los elementos de la base bajo las dos transformaciones son iguales. Para demostrar la otra implicación, recordemos que como B es una base de V , para cada vector v de V , existen escalares λ1 , λ2 , . . . , λn tales que v = λ1 v1 +λ2 v2 +. . .+λn vn . CAPÍTULO 5. TRANSFORMACIONES LINEALES 132 Por el Teorema 1 y la igualdad de las imágenes de los elementos de la base bajo las dos transformaciones, tenemos T (v) = λ1 T (v1 ) + λ2 T (v2 ) + . . . + λn T (vn ) = λ1 S(v1 ) + λ2 S(v2 ) + . . . + λn S(vn ) = S(v) ¤ Por los teoremas anteriores, es fácil ver que si conocemos la imagen de cada uno de los elementos de una base del dominio de una transformación, podemos conocer la imagen de cualquier otro vector del dominio. En otras palabras, que una transformación lineal queda completamente determinada por las imágenes de cada uno de los elementos de una base del dominio, como lo enunciamos en el siguiente teorema. Teorema 3 Si B = {v1 , v2 , . . . , vn } es una base del espacio vectorial V , existe una única transformación T : V −→ W , tal que w1 = T (v1 ), w2 = T (v2 ), . . . , wn = T (vn ) con w1 , w2 , . . . , wn ∈ W . Demostración: Tenemos que B es una base de V , así que B es un conjunto generador de V y por tanto, para cualquier vector v de V existen escalares λ1 , λ2 , . . . , λn tales que v = λ1 v1 + λ2 v2 + . . . + λn vn . Así, que si sabemos que w1 = T (v1 ), w2 = T (v2 ), . . . , wn = T (vn ), podemos encontrar la imagen de cualquier vector v de V . En efecto, por el Teorema 1, T (v) = λ1 w1 + λ2 w2 + . . . + λn wn . Nos queda por demostrar la unicidad de esta transformación. Supongamos que existen dos transformaciones lineales T1 y T2 tales que T1 (vi ) = wi = T2 (vi ) para i = 1, 2, . . . , n. Por el Teorema 2, T1 y T2 son la misma transformación. ¤ Ejemplo 8: Sea T : P2 −→ R3 la transformación lineal tal que T (1) = (1, 0, 0)T , T (x) = (1, 1, 0)T y T (x2 ) = (1, 1, 1)T .Calculemos T (a + bx + cx2 ). Dado que {1, x, x2 } es la base canónica de P2 , a + bx + cx2 = a · 1 + b · x + c · x2 , de tal forma que 1 1 1 a+b+c T (a + bx + cx2 ) = a T (1) + b T (x) + c T (x2 ) = a 0 + b 1 + c 1 = b + c . 0 0 1 c T T ¤ 3 Ejemplo 9: Dados los vectores ©u1 = (−1, 3, −2) y u2 = (2, 0, 1) ª de R , encontremos una transformación lineal T de R2 en el plano H = v ∈ R3 : v = tu1 + su2 , t, s ∈ R de R3 . Si tomamos {e1 , e2 }, la base canónica de R2 , y dos vectores arbitrarios de H, por ejemplo, u1 y u2 , podemos definir T (e1 ) = u1 y T (e2 ) = u2 , de tal manera que µ ¶ −x + 2y −1 2 x . 3x T = x T (e1 ) + y T (e2 ) = x 3 + y 0 = y 1 −2x + y −2 Existe otra transformación de R2 en el plano H? 5.3. ¤ Espacios Vectoriales Asociados a una Transformación Lineal Definimos ahora, dos conjuntos asociados a una transformación lineal, los cuales resultan ser Espacios Vectoriales y fundamentales para determinar propiedades de este tipo especial de funciones. CAPÍTULO 5. TRANSFORMACIONES LINEALES 133 Definición 2: [Núcleo de una Transformación Lineal ] Dada una transformación lineal T : V −→ W , definimos núcleo de T como el conjunto N u(T ) de todos los vectores de V cuya imagen es el vector 0 de W . En otras palabras, N u(T ) = {v ∈ V : T (v) = 0}. Definición 3: [Imagen de una Transformación Lineal ] Dada una transformación lineal T : V −→ W , definimos imagen de T como el conjunto Im(T ) de todos los vectores de W para los cuales existe un vector v de V , tal que T (v) = w. En otras palabras, Im(T ) = {w ∈ W : existe v ∈ V tal que T (v) = w}. Ejemplo 10: Consideremos la transformación lineal T : M2×2 −→ M2×2 , tal que T e identifiquemos N u(T ) ¶ µ µ a b = Como T c d ½µ N u(T ) = e Im(T ). µ a b c d ¶ = µ a 0 b c+d ¶ a b = 0 implica que a = b = 0 y c = −d, concluimos que 0 c+d ¶ ¾ ½µ ¶ ¾ a b 0 0 : a = 0, b = 0, c = −d, a, b, c, d ∈ R = :r∈R . c d −r r µ ¶ µ r s r Como las únicas matrices que son imágenes bajo T tienen la forma (en efecto, T 0 t t−α ¾ ¶ ¶ ½µ µ r s r s , r, s, t ∈ R . , para cualquier α ∈ R), tenemos que Im(T ) = 0 t 0 t s α ¶ = ¤ Ejemplo 11: Sea T : P2 −→ R3 la transformación lineal del Ejemplo 8. Identifiquemos N u(T ) e Im(T ). a+b+c Como vimos en el Ejemplo 8, T (a + bx + cx2 ) = b + c , de tal forma que T (a + bx + cx2 ) = 0 implica c que a = b = c = 0 y que cualquier vector de R3 es imagen bajo T (en efecto, T ((p − q) + (q − r)x + rx2 ) = (p, q, r)T , para cualquier vector (p, q, r)T ∈ R3 ), por lo tanto, N u(T ) = {0} e Im(T ) = R3 . ¤ Como ocurrió con los conjuntos asociados a una matriz, los conjuntos asociados a una transformación lineal que acabamos de definir también son espacios vectoriales. En efecto, el núcleo es un subespacio del dominio de la transformación y la imagen es un subespacio del codominio de la transformación, lo cual demostramos en el siguiente teorema. Teorema 4 Sean V y W espacios vectoriales y T : V −→ W una transformación lineal. Entonces 1. N u(T ) es subespacio vectorial de V . 2. Im(T ) es subespacio vectorial de W . Demostración: Por el Teorema 1 del Capítulo 4, un subconjunto H no vacío de un espacio vectorial es un subespacio vectorial, si y solo si, los elementos de H satisfacen las propiedades clausurativas para la suma y el producto por escalar (Axiomas 1 y 6 de la definición de espacio vectorial). 1. Por el Corolario 1.1, 0 es un elemento de N u(T ), asi que N u(T ) es no vacío. De otro lado, si tomamos dos vectores u y v de N u(T ) y un escalar λ, tenemos que T (u) = 0 y T (v) = 0, de modo que T (u + v) = T (u) + T (v) = 0 + 0 = 0 T (λu) = λT (u) = λ0 = 0, ¶ CAPÍTULO 5. TRANSFORMACIONES LINEALES 134 de donde concluimos que u + v y λu están en N u(T ). 2. De nuevo por el Corolario 1.1, 0 es un elemento de Im(T ), asi que Im(T ) es no vacío y si tomamos dos vectores w1 y w2 de Im(T ) y un escalar λ, tenemos que existen v1 y v2 , vectores de V tales que T (v1 ) = w1 y T (v2 ) = w2 , de modo que w1 + w2 λw1 = T (v1 ) + T (v2 ) = T (v1 + v2 ) = λT (v1 ) = T (λv1 ) de donde concluimos que w1 + w2 y λw1 están en Im(T ). 5.4. ¤ Matriz Asociada a una Transformación Lineal Ya sabemos que una transformación lineal queda completamente determinada por la forma como actúa en una base del dominio y que la función de Rm a Rn definida por T (x) = Ax para una matriz m × n dada es una transformación lineal, la cual llamamos transformación matricial. En esta sección, demostraremos que toda transformación lineal entre espacios vectoriales de dimensión finita puede ser representada como una transformación matricial. Con este propósito, dadas una base del dominio y una base del codominio, para cada transformación lineal, definamos una matriz asociada a ella, como la matriz cuyas columnas son las coordenadas en la base del codominio de las imágenes bajo T de los elementos de la base del dominio. Definición 4: [Matriz Asociada a una Transformación Lineal Respecto a las Bases B y B ′ ] Dadas la transformación lineal T : V −→ W y las bases B = {v1 , v2 , . . . , vn } y B ′ de V y W , respectivamente, definimos como matriz asociada a la transformación lineal T respecto a las bases B y B ′ a la matriz [AT ]BB′ = [[T (v1 )]B′ [T (v2 )]B′ · · · [T (vn )]B′ ] Mientras no haya necesidad de aclarar, denotaremos simplemente por AT la matriz asociada a la transformación, respecto a las bases dadas. µ ¶ a−b Ejemplo 12: Sea T : P2 −→ R2 la transformación lineal tal que T (a + bx + cx2 ) = y sean c ¶¾ ½µ ¶ µ 0 1 bases de P2 y R2 , respectivamente. Encontremos la , B = {1, 1 + x, 1 + x − x2 } y B ′ = 1 0 matriz asociada a la transformación, respecto a las bases dadas. ¶ µ µ ¶ µ ¶ 0 0 1 2 ′ ′ = = [T (1 + x)]B y T (1 + x − x ) = = [T (1)]B , T (1 + x) = Tenemos que T (1) = −1 0 0 2 [T (1 + x − x )]B′ , de donde la matriz asociada a T respecto a las bases dadas es µ ¶ 1 0 0 AT = . 0 0 −1 ¤ CAPÍTULO 5. TRANSFORMACIONES LINEALES 135 y 6 e2 (0, 1) 6 (1, 0) e1 -x (0, −1) −e2 ? Rotación de 90o en el sentido de las manecillas del reloj Ejemplo 13: Calculemos la matriz asociada a la transformación lineal S, que a cada vector del plano cartesiano lo rota 90o en el sentido de las manecillas del reloj respecto a las base canónica de R2 . Sea B = {e1 , e2 } la base canónica de R2 . Por la definición de S y la figura anterior, S(e1 ) = −e2 y S(e2 ) = e1 ; por lo tanto, la matriz asociada a S respecto a la base canónica es µ ¶ 0 1 AS = . −1 0 ¤ Podemos ver que la matriz asociada a una transformación lineal permite expresar el vector de coordenadas de la imagen de cualquier vector, en términos de su vector de coordenadas respecto a la base del dominio, de tal manera que, en términos de los vectores de coordenadas, todas las transformaciones lineales resultan ser matriciales, como lo expresa la siguiente propiedad de la matriz asociada a una transformación. Teorema 5 Dadas la transformación lineal T : V −→ W , con V y W espacios vectoriales de dimensión finita y las bases B = {v1 , v2 , . . . , vn } y B ′ de V y W , respectivamente, la matriz asociada a la transformación T respecto de estas bases, [AT ], es la única matriz tal que, para todo v ∈ V [T (v)]B′ = AT [v]B . Demostración: Si v = λ1 v1 +λ2 v2 +. . .+λn vn , por el Teorema 1, T (v) = λ1 T (v1 )+λ2 T (v2 )+. . .+λn T (vn ). De donde, por el Teorema 14 del Capítulo 4, la combinación se conserva para los vectores de coordenadas respectivos respecto a una misma base; es decir, [T (v)]B′ = λ1 [T (v1 )]B′ + λ2 [T (v2 )]B′ + . . . + λn [T (vn )]B′ . Así que, por definición de Ax, tenemos que [T (v)]B′ = AT [v]B . La unicidad se deja como ejercicio para el lector. (Ayuda: Ver demostración del Numeral 1 del Teorema 16 del Capítulo 4.) ¤ CAPÍTULO 5. TRANSFORMACIONES LINEALES 136 T V v - W w = T (v) B′ B ? AT Rn [v]B ? - Rm [w]B′ = AT [v]B Ejemplo 14: Verifiquemos el teorema anterior con la transformación ¶y las bases del Ejemplo 12. Si T : µ a − b y B = {1, 1 + x, 1 + x − x2 } y P2 −→ R2 es la transformación lineal T (a + bx + cx2 ) = c ½µ ¶ µ ¶¾ 1 0 B′ = , son bases de P2 y R2 , respectivamente, la matriz asociada a la transformación, 0 1 ¶ µ 1 0 0 . De otro lado, puesto que la base B ′ es la base canónica respecto a las bases dadas es AT = 0 0 −1 ¶ µ a−b y, al resolver la ecuación a+bx+cx2 = λ1 (1)+λ2 (1+x)+λ3 (1+x−x2 ), de R2 , [T (a+bx+cx2 )]B′ = c a−b tenemos que λ1 = a − b, λ2 = b + c y λ3 = −c, asi que [a + bx + cx2 ]B = b + c . −c Verifiquemos, finalmente, que [T (a + bx + cx2 )]B′ = AT [a + bx + cx2 ]B = µ 1 0 0 0 0 −1 ¶ ¶ µ a−b a−b b+c = . c −c ¤ El hecho de que fijadas las bases del dominio y codominio de una transformación lineal, ésta tenga una matriz asociada, nos permite establecer las siguientes relaciones entre el espacio nulo de la matriz y el núcleo de la transformación y entre el espacio columna de la matriz y la imagen de la transformación. Teorema 6 Dadas la transformación lineal T : V −→ W , con V y W de dimensión finita, y las bases B y B ′ de V y W , respectivamente, si AT es la matriz asociada a la transformación respecto a las bases dadas, entonces 1. v ∈ N u(T ), si y solo si, [v]B ∈ NAT 2. w ∈ Im(T ), si y solo si, [w]B′ ∈ CAT Demostración: 1. Tenemos que v ∈ N u(T ) si si si si y y y y solo solo solo solo si si si si T (v) = 0 ∈ W [T (v)]B′ = 0 AT [v]B = 0 [v]B ∈ NAT . (Teorema 14, Capítulo 4) (Teorema 5) CAPÍTULO 5. TRANSFORMACIONES LINEALES 137 2. Similarmente, w ∈ Im(T ) si y solo si si y solo si si y solo si existe v ∈ V tal que T (v) = w [w]B′ = [T (v)]B′ = AT [v]B [w]B′ ∈ CAT . (Teorema 5) ¤ Es importante que resaltemos que N u(T ) es un subespacio de V , el dominio de T , y que NAT es un subespacio de Rn , de tal manera que si v ∈ N u(T ), el vector que está en NAT es el vector de coordenadas de v respecto a la base dada de V , no v . Similarmente, Im(T ) es un subespacio de W , el codominio de T , y CAT es un subespacio de Rm y si w ∈ Im(T ), el vector que está en el espacio columna de la matriz es el vector de coordenadas de w respecto a la base dada de W , no w. Sin embargo, debemos anotar que las dimensiones de N u(T ) e Im(T ) coinciden con las de NAT y CAT y por consiguiente, dim(N u(T )) + dim(Im(T )) = dim(V ). Cuando la transformación lineal va de un espacio en si mismo y tomamos la misma base, tanto en el dominio como en el codominio, hablaremos simplemente de la matriz asociada a la transformación lineal respecto a la base. Asi, por ejemplo, cuando tenemos la transformación idéntica, la matriz asociada resulta ser la matriz idéntica, independientemente de la base que se tome. De otro lado, al tomar distintas bases, tenemos distintas matrices asociadas a una misma transformación. El siguiente teorema nos establece una relación entre dos matrices asociadas a una misma transformación y la matriz cambio de base. Teorema 7 Sea T : V −→ V una transformación lineal, con V un espacio vectorial de dimensión finita y sean B y B ′ dos bases de V . Si P es la matriz de transición de B a B ′ , AT es la matriz asociada a T respecto a B y A′T es la matriz asociada a T respecto a B ′ , entonces A′T P = P AT . (5.1) Demostración: Si P es la matriz de transición de B a B ′ , [w]B′ = P [w]B , para todo w ∈ V y en particular, [T (v)]B′ = P [T (v)]B , para todo v ∈ V . De otro lado, como AT es la matriz asociada a T respecto a la base B, [T (v)]B = AT [v]B ; así que [T (v)]B′ = P [T (v)]B = P (AT [v]B ) = (P AT )[v]B . Por el Teorema 16 del Capítulo 4, P −1 es la matriz de transición de B ′ a B. Por tanto, [T (v)]B′ = (P AT )[v]B = (P AT )(P −1 [v]B′ ) = (P AT P −1 )[v]B′ . Finalmente, por el Teorema 5, (P AT P −1 ) es la matriz asociada a T respecto a la base B ′ . Así, que A′T = P AT P −1 , de donde se sigue la ecuación (5.1), que es lo que queríamos demostrar. ¤ Ejemplo 15: Verifiquemos el teorema anterior con la transformación lineal T : R2 −→ R2 tal que µ ¶ µ ¶ ½µ ¶µ ¶¾ ½µ ¶ µ ¶¾ x x+y 1 1 1 0 ′ T = y las bases B = yB = , . y 2x − y 0 1 0 1 ′ ′ Por ser B la base canónica, la matriz de transición de B a B es P = De otro lado, tenemos que µ ¶ µ ¶ 1 1 T = 0 2 µ ¶ µ ¶ 1 2 T = 1 1 µ 1 1 0 1 ¶ . µ ¶ µ ¶ · µ ¶¸ µ ¶ 1 1 1 −1 = −1 +2 ; es decir, T = 0 1 0 2 µ ¶ µ ¶ · µ ¶¸ B µ ¶ 1 1 1 1 = 1 +1 ; es decir, T = 0 1 1 1 B CAPÍTULO 5. TRANSFORMACIONES LINEALES 138 Así que, la matriz asociada a T respecto a B es AT = Similarmente, tenemos que ¶ µ µ ¶ µ 1 1 = 1 = T 2 0 µ ¶ µ ¶ µ 0 1 T = = 1 1 −1 ¶ +2 µ 0 1 ¶ ¶ . 1 −1 ¶ . ; es decir, Finalmente, ¶µ P AT = µ 1 1 0 1 A′T P µ 1 1 2 −1 = 1 1 µ ¶ · µ ¶¸ 1 1 = T 2 0 ′ ¶ µ ¶ · µ ¶¸B µ ¶ 1 0 0 1 −1 ; es decir, T = . 0 1 1 −1 B′ 1 0 Por lo tanto, la matriz asociada a T , respecto a B ′ es A′T = y · · µ ¶¸ · µ ¶¸ ¸ µ 1 1 −1 T T = 0 1 2 B B −1 1 2 1 ¶µ 1 1 0 1 · µ ¶¸ ¸ µ · · µ ¶¸ 1 0 1 = T T 2 1 0 ′ ′ B B ¶ ¶ = µ 1 2 2 1 ¶ = µ 1 2 2 1 ¶ de donde vemos claramente que se cumple el teorema. ¤ Todas las matrices asociadas a una misma transformación (pero en diferente base) satisfacen la ecuación (5.1) para alguna matriz invertible (que resulta ser la matriz cambio de base). A lasmatrices que satisfacen esta ecuación las llamamos matrices semejantes, como lo establece la siguiente definición. Definición 5: [Matrices Semejantes] Dadas dos matrices n × n, A y B, decimos que A y B son matrices semejantes, si existe una matriz invertible P , tal que BP = P A o lo que es lo mismo, B = P AP −1 . Ejemplo 16: En el Ejemplo 15, las matrices AT y A′T son semejantes. 5.5. ¤ Isomorfismos Aunque hay infinidad de espacios vectoriales, veremos que muchos de ellos son “ esencialmente el mismo” respecto a la estructura de espacio vectorial. En esta sección, nos ocuparemos por analizar este concepto de similitud, para lo cual utilizaremos las propiedades de ciertas transformaciones especiales, cuyas definiciones damos a continuación. Definición 6: [Transformación Inyectiva] Diremos que T : V −→ W es una transformación lineal inyectiva, si y solo si, para cada w de Im(T ), existe un único v ∈ V tal que T (v) = w. Ejemplo 17: Determinemos si la transformación del Ejemplo 10 es inyectiva. Es fácil ver que la transformación no es inyectiva, ya que, por ejemplo, µ ¶ µ ¶ µ ¶ 1 1 1 1 1 1 T = =T . 1 3 0 4 2 2 ¤ Ejemplo 18: Verifiquemos que la transformación lineal del Ejemplo 11 es una transformación inyectiva. Tenemos que demostrar que si T (a1 + b1 x + c1 x2 ) = T (a2 +b2 x + c2 x2 ), entonces 2 y c1 = c2 , a1 = a2 , b1 = b a2 + b2 + c2 a1 + b1 + c1 . = b2 + c2 b1 + c1 ¤ lo que es fácil de concluir al resolver la ecuación vectorial c2 c1 CAPÍTULO 5. TRANSFORMACIONES LINEALES 139 Como lo habiamos mencionado al definir el núcleo y la imagen de una transformación, conocer estos subespacios vectoriales nos permite identificar algunas propiedades de la transformación. Veamos algunas de ellas. Teorema 8 Sea T : V −→ W una transformación lineal. La transformación T es inyectiva, si y solo si, N u(T ) = {0}. Demostración: Supongamos que T es inyectiva. Como T (0) = 0, 0 es el único elemento de N u(T ). Demostremos ahora la implicación contraria. Supongamos que N u(T ) = {0} y veamos que si T (u) = T (v), entonces u = v. Como T (u) = T (v), entonces T(u-v)=T (u) − T (v) = 0, lo que implica que u − v ∈ N u(T ). Pero, como N u(T ) = {0}, entonces u − v = 0 y por tanto u = v. ¤ Un resultado bastante útil, que consignaremos en el siguiente teorema, es el que las transformaciones lineales inyectivas envían conjuntos de vectores l.i. en conjuntos de vectores l.i., así, conocida una base del dominio, podemos encontrar una base del espacio imagen de la transformación. Teorema 9 Si T : V −→ W es una transformación lineal inyectiva y {v1 , v2 , . . . , vn } es un conjunto de vectores l.i., entonces {T (v1 ), T (v2 ), . . . , T (vn )} es un conjunto de vectores l.i. Demostración: Supongamos que λ1 T (v1 )+λ2 T (v2 )+. . .+λn T (vn ) = 0. Por el Teorema 1, T (λ1 v1 +λ2 v2 + . . . + λn vn ) = 0. Como T es inyectiva, λ1 v1 + λ2 v2 + . . . + λn vn = 0, lo que implica, por la independencia lineal de {v1 , v2 , . . . , vn }, que λ1 = λ2 = . . . = λn = 0. ¤ Definición 7: [Transformación Sobreyectiva] Diremos que T : V −→ W es una transformación lineal sobreyectiva, si y solo si, Im(T ) = W . Ejemplo 19: Determinemos si la transformación del Ejemplo 10 es sobreyectiva. ¶ ¶ µ µ a b a b , es fácil ver que para que una matriz esté en la imagen de T , la = Dado que T 0 c+d c d componente (1,2) debe ser 0, lo que nos indica que Im(T ) 6= M2×2 y por tanto T no es sobreyectiva. ¤ Ejemplo 20: Verifiquemos que la transformación del Ejemplo 12 es sobreyectiva. µ ¶ u Tenemos que verificar que para cualquier vector ∈ R2 , existe un polinomio (a + bx + cx2 ) ∈ P2 , tal v ¶ ¶ µ µ u a−b , para lo cual basta con tomar c = v y a y b tales que a − b = u.¤ = que T (a + bx + cx2 ) = v c Con los conceptos de inyectividad y sobreyectividad y los resultados hasta ahora obtenidos, podemos ver que si una transformación entre los espacios vectoriales V y W es tanto inyectiva, como sobreyectiva (isomorfismo), es porque tienen esencialmente la misma estructura de espacio vectorial; en otra palabras, son “esencialmente los mismos” (isomorfos), como lo expresamos en la siguiente definición. Definición 8: [Isomorfismo] Diremos que una transformación lineal T : V −→ W es un isomorfismo, si y solo si, T es inyectiva y sobreyectiva. Definición 9: [Espacios Vectoriales Isomorfos] Si dados dos espacios vectoriales V y W , existe un isomorfismo T : V −→ W , diremos que V y W son isomorfos. a Ejemplo 21: Determinemos si T : R3 −→ P2 tal que T b = a + bx + cx2 es un isomorfismo. c Debemos determinar si T es inyectiva, y en caso de serlo, determinar si también es sobreyectiva. Para CAPÍTULO 5. TRANSFORMACIONES LINEALES 140 determinar si T es inyectiva supongamos que a2 a1 T b1 = a1 + b1 x + c1 x2 = T b2 = a2 + b2 x + c2 x2 c2 c1 de donde, por igualdad de polinomios, a1 = a2 , b1 = b2 y c1 = c2 , lo que implica que T es inyectiva. a Ahora, al tomar un polinomio arbitrario a + bx + cx2 , podemos exhibir un elemento de R3 , a saber, b c a tal que T b = a + bx + cx2 lo que implica que T es sobreyectiva y por lo tanto, T es un isomorfismo ¤ c Ejemplo 22: La transformación del Ejemplo 10 resultó no ser sobreyectiva (ver Ejemplo 19), por tanto no es un isomorfismo. ¤ Cuando el dominio y el codominio tienen la misma dimensión, cualquier transformación lineal que sea inyectiva o sobreyectiva resulta ser un isomorfismo, lo cual demostramos en el siguiente teorema. Teorema 10 Si T : V −→ W es una transformación lineal, con V y W espacios vectoriales de dimensión finita y dim(V ) = dim(W ), entonces 1. si T es inyectiva, T es sobreyectiva. 2. si T es sobreyectiva, T es inyectiva. Demostración: 1. Si T es inyectiva y {v1 , v2 , . . . , vn } es una base de V , entonces, {T (v1 ), T (v2 ), . . . , T (vn }) es una base de Im(T ), por los Teoremas 1 y 9. Así que dim(V ) = dim(Im(T )). Pero por hipótesis, dim(W ) = dim(V ), por lo tanto, Im(T ) = W , de donde concluimos que T es sobreyectiva. 2. Por el Teorema 6, dim(N u(T )) + dim(Im(T )) = dim(V ). Por ser T sobreyectiva, dim(Im(T )) = dim(W ) y por hipótesis dimV = dimW , así que dim(N u(T )) = 0, es decir, N u(T ) = {0}, de donde podemos concluir, por el Teorema 8, que T es inyectiva. ¤ Entre dos espacios de igual dimensión siempre se puede construir un isomorfismo, basta con asignarle a cada vector de una base del dominio, un vector (diferente) de una base del codominio, como veremos en la demostración del siguiente resultado. Teorema 11 Si V y W son espacios vectoriales de dimensión finita, entonces dim(V ) = dim(W ), si y solo si, V y W son isomorfos. Demostración: Supongamos que V y W son isomorfos, asi que existe un isomorfismo T : V → W , de tal manera que si {v1 , v2 , . . . , vn } es una base de V , entonces, {T (v1 ), T (v2 ), . . . , T (vn }) es una base de Im(T ) y por tanto, dim(V ) = dim(Im(T )) = dim(W ). Para ver la otra implicación, supongamos que dim(V ) = dim(W ) y sean {v1 , v2 , . . . , vn } y {w1 , w2 , . . . , wn } bases de V y W , respectivamente. Podemos ver que la transformación lineal T : V → W , donde T (vi ) = wi , resulta ser un isomorfismo. En efecto, T es sobreyectiva ya que {w1 , w2 , . . . , wn } es base, tanto de Im(T ), como de W , lo que implica que Im(T ) = W . En consecuencia, por el Resultado 2 del Teorema 10, T es inyectiva. ¤ CAPÍTULO 5. TRANSFORMACIONES LINEALES 141 Volviendo sobre la identificación de una transformación y su matriz asociada, podemos ver que las propiedades de las transformaciones se caracterizan por el número de pivotes de la forma escalonada de sus matrices asociadas, como lo establecemos en el siguiente teorema, cuya demostración dejamos como ejercicio para el lector. Teorema 12 Sean T : V −→ W una transformación lineal, con V y W de dimensión finita y AT la matriz m × n asociada a la transformación, respecto a dos bases dadas. Entonces, 1. T es inyectiva, si y solo si, la forma escalonada de AT tiene n pivotes. 2. T es sobreyectiva, si y solo si, la forma escalonada de AT tiene m pivotes. 3. T es un isomorfismo, si y solo si, AT es invertible. 5.6. Algebra de transformaciones lineales Dado que las transformaciones lineales son casos particulares de funciones, podemos definir la suma, la multiplicación por escalar y la composición de transformaciones, como se hace en las funciones de valor real. Adicionalmente, veremos que estas operaciones están relacionadas con las operaciones matriciales de sus matrices asociadas. Definición 10: [Suma y Multiplicación por Escalar de Transformaciones] Dadas dos transformaciones lineales T, S : V −→ W y un escalar λ ∈ R, definimos T + S, la suma de T y S, como la función tal que (T + S)(v) = T (v) + S(v), (T + S) : V −→ W, para todo v∈V y definimos λT , la multiplicación de T por el escalar λ, como la función tal que (λT )(v) = λ[T (v)], (λT ) : V −→ W, para todo Ejemplo 23: Dadas las transformaciones lineales T, S : R2 −→ P1 , tal que T ¶ ¶ µ µ −2 −2 . y (−3T ) a − 2bx, calculemos (T + S) 5 5 µ v ∈ V. a b ¶ = a + bx y S µ a b ¶ = Por la definición anterior, µ ¶ µ ¶ µ ¶ −2 −2 −2 (T + S) =T +S = (−2 + 5x) + (−2 − 10x) = −4 − 5x 5 5 5 y (−3T ) µ −2 5 ¶ · µ ¶¸ −2 = −3 T = −3(−2 + 5x) = 6 − 15x. 5 ¤ Teorema 13 Si S, T : V −→ W son transformaciones lineales y µ es un escalar, entonces las funciones (T + S) : V −→ W y (µT ) : V −→ W son transformaciones lineales. CAPÍTULO 5. TRANSFORMACIONES LINEALES 142 Demostración: Sean v1 , v2 ∈ V , entonces (S + T )(v1 + v2 ) = S(v1 + v2 ) + T (v1 + v2 ) = S(v1 ) + S(v2 ) + T (v1 ) + T (v2 ) = S(v1 ) + T (v1 ) + S(v2 ) + T (v2 ) = (S + T )(v1 ) + (S + T )(v2 ) (S + T )(λv) = S(λv) + T (λv) = λ [S(v) + λT (v)] = λ[S(v) + T (v)] = λ(S + T )(v), de donde podemos concluir que (S + T ) es también una transformación lineal. De otro lado, (µT )(v1 + v2 ) = µ[T (v1 + v2 )] = µ[T (v1 ) + T (v2 )] = µ[T (v1 )] + µ[T (v2 )] = (µT )(v1 ) + (µT )(v2 ) (µT )(λv) = µ[T (λv)] = µ[λT (v)] = (µλ)[T (v)] = λ[(µT )(v)], de donde (µT ) también es una transformación lineal. ¤ El conjunto de transformaciones lineales T : V −→ W , con la suma y multiplicación por escalar antes definidas, satisfacen las propiedades que caracterizan a los espacios vectoriales. Teorema 14 Dadas las transformaciones lineales R, S, T : V −→ W y los escalares λ, µ, entonces 1. R + (S + T ) = (R + S) + T 2. S + T = T + S 3. T + 0 = 0 + T = T 4. T + (−T ) = (−T ) + T = 0 5. λ(S + T ) = λS + λT 6. (λ + µ)T = λT + µT 7. (λµ)T = λ(µT ) = µ(λT ) 8. 1T = T 9. 0T = 0 Demostración: Se deja como ejercicio para el lector. Definiremos ahora la composición, una operación que está definida en funciones tales que el codominio de una de las funciones coincide con el dominio de la otra. En este caso, nos restringiremos a transformaciones lineales. Definición 11: [Composición de Transformaciones] Sean T : U −→ V y S : V −→ W transformaciones lineales. Definimos S ◦ T , la composición de S con T , como la función (S ◦ T ) : U −→ W tal que (S ◦ T )(u) = S(T (u)) para todo u∈U. Teorema 15 Dadas T : U −→ V y S : V −→ W transformaciones lineales, la composición de S con T , (S ◦ T ) : U −→ W, es también una transformación lineal. CAPÍTULO 5. TRANSFORMACIONES LINEALES 143 Demostración: Sean u, u1 , u2 ∈ U y λ ∈ R, entonces (S ◦ T )(u1 + u2 ) = S(T (u1 + u2 )) = S(T (u1 ) + T (u2 )) = S(T (u1 )) + S(T (u2 )) = (S ◦ T )(u1 ) + (S ◦ T )(u2 ). (S ◦ T )(λu) = S(T (λu)) = S(λT (u)) = λ[S(T (u))] = λ(S ◦ T )(u). Por consiguiente, S ◦ T es una transformación lineal. ¤ a Ejemplo 24: Dadas las transformaciones lineales T : R3 −→ P1 y S : P1 −→ R2 , tal que T b = c µ ¶ 1 α−β (a + b) + cx y S(α + βx) = , calculemos (S ◦ T ) −2 . β 3 Por la definición, µ ¶ µ ¶ 1 1 −1 − 3 −4 −2 −2 (S ◦ T ) =S T = S (−1 + 3x) = = . 3 3 3 3 ¤ La composición de transformaciones lineales también satisface propiedades algebraicas, las cuales consignamos en el siguiente teorema. Teorema 16 Sean R, S y T transformaciones lineales tales que, en cada caso, las composiciones están bien definidas y sea λ un escalar, entonces 1. (T ◦ S) ◦ R = T ◦ (S ◦ R). 2. T ◦ (S + R) = (T ◦ S) + (T ◦ R). 3. (T + S) ◦ R = (T ◦ R) + (S ◦ R). 4. λ(T ◦ S) = (λT ) ◦ S = T ◦ (λS). 5. I ◦ T = T ◦ I = T . 6. 0 ◦ T = 0 y T ◦ 0 = 0. Demostración: Demostraremos las Propiedades 1. y 4. Las demás las dejamos como ejercicio para el lector. 1. Por definición de la composición de transformaciones, ((T ◦ S) ◦ R)(v) = (T ◦ S)(R(v)) = T (S(R(v))) = T ((S ◦ R)(v)) = (T ◦ (S ◦ R))(v) . 4. Igualmente, por la definición de la composición de transformaciones, λ(T ◦ S)(v) = λ(T (S(v)) = (λT )(S(v)) = [(λT ) ◦ S] (v) CAPÍTULO 5. TRANSFORMACIONES LINEALES 144 de otro lado, λ(T ◦ S)(v) = (T ◦ S)(λv) = T (S(λv)) = T (λS(v)) = [T ◦ (λS)] (v). ¤ En la Sección 5.2, vimos que existe una estrecha relación entre las transformaciones y las matrices, a saber, si T es una transformación lineal T : V −→ W , B y B ′ son bases de V y W , respectivamente y AT es la matriz asociada a T , respecto a las bases B y B ′ , entonces [T (v)]B′ = AT [v]B . Mediante esta relación entre transformaciones y matrices, podemos establecer una correspondencia entre las operaciones algebraicas de las transformaciones y las operaciones algebraicas de las matrices asociadas a ellas, como lo consignamos en el siguiente teorema. Teorema 17 Sean B, B ′ y B ′′ bases de los espacios vectoriales U , V y W , respectivamente; T, S : U −→ V y R : V −→ W transformaciones lineales; AT y AS las matrices asociadas a T y S respecto a las bases B y B ′ y AR la matriz asociada a R respecto a las bases B ′ y B ′′ , entonces la matriz asociada a la transformación 1. T + S respecto a las bases B y B ′ es AT + AS . 2. T − S respecto a las bases B y B ′ es AT − AS . 3. −T respecto a las bases B y B ′ es −AT . 4. λT respecto a las bases B y B ′ es λAT . 5. R ◦ T respecto a las bases B y B ′′ es AR AT . Demostración: Demostremos la Propiedad 5; las demás las dejamos como ejercicio para el lector. Por la definición de matriz asociada a una transformación, [(R ◦ T )(u)]B′′ = [R(T (u))]B′′ = AR [T (u)]B′ = AR (AT [u]B ) = (AR AT )[u]B y por la propiedad de unicidad del Teorema 5, la matriz asociada a (R ◦ T ) respecto a las bases B y B ′ es AR AT . ¤ Como ocurre en general para el conjunto de funciones, la composición de transformaciones permite caracterizar las transformaciones lineales que son invertibles, como lo consignamos en la siguiente definición. Definición 12: [Transformación Invertible] Diremos que T : V −→ W es una transformación lineal invertible, si existe una transformación lineal S : W −→ V tal que (T ◦S) = IW : W −→ W y (S◦T ) = IV : V −→ V . A la transformación S la llamamos inversa de T . µ ¶ a Ejemplo 25: Verifiquemos que T : R2 −→ P1 tal que T = (a + b) + (a − b)x es una transformación b invertible. ¶T µ u+v u−v 2 , es una transformación lineal tal que Veamos que S : P1 −→ R tal que S(u + vx) = 2 2 T ◦ S = IP1 y S ◦ T = IR2 . ¶ µ µ u+v ¶ u+v u−v u+v u−v 2 = x = u+vx = IP1 (u+vx) + + − (T ◦S)(u+vx) = T (S(u + vx)) = T u−v 2 2 2 2 2 CAPÍTULO 5. TRANSFORMACIONES LINEALES (S ◦ T ) µ a b ¶ à µ µ ¶¶ a =S T = S((a + b) + (a − b)x) = b 145 (a+b)+(a−b) 2 (a+b)−(a−b) 2 ! = µ a b ¶ = IR2 µ a b ¶ . ¤ Al igual que con las funciones en general y que con las matrices, la inversa de una transformación lineal es única, como lo planteamos en el siguiente teorema, cuya demostración dejamos como ejercicio para el lector. Teorema 18 Sea T : V → W una transformación lineal. Si existen S1 , S2 : W → V , dos transformaciones lineales tales que T ◦ S1 = T ◦ S2 = IW y S1 ◦ T = S2 ◦ T = IV , entonces S1 = S2 . Similarmente como hicimos en el caso de las matrices, la inversa de la transformación T la denotamos T −1 y demostremos la relación de equivalencia entre las transformaciones invertibles y los isomorfismos. Teorema 19 Sea T : V → W una transformación lineal, entonces T es invertible, si y solo si, T es un isomorfismo. Demostración: Supongamos que T es invertible y que S es su inversa. Tomemos v1 , v2 ∈ V y supongamos que T (v1 ) = T (v2 ), así que S(T (v1 )) = S(T (v2 )), de donde concluimos que v1 = v2 y por consiguiente que T es inyectiva. Tomemos ahora w ∈ W y sea v = S(w), así que T (v) = T (S(w)) = w, de donde concluimos que T es sobreyectiva y por tanto es un isomorfismo. Supongamos ahora que T es un isomorfismo, asi que T es inyectiva y sobreyectiva. Sea w ∈ W , entonces existe un único v ∈ V , tal que T (v) = w. Definimos S, de tal forma que S(w) = v, cuando T (v) = w. Es fácil demostrar que S es la inversa de T ¤ Ejemplo 26: Utilicemos el teorema anterior para determinar si la transformación del Ejemplo 1 es invertible. Si la transformación del Ejemplo 1, que va de R3 a R2 fuese invertible, por el teorema anterior, T seria un isomorfismo y por lo tanto, los espacios vectoriales R3 y R2 serian isomorfos, lo cual, por el Teorema 11, no es posible ya que sus dimensiones son distintas. En consecuencia, la transformación del Ejemplo 1 no es invertible. ¤ Por último, veremos que para determinar si una transformación es invertible, es suficiente que su matriz asociada lo sea, como lo establecemos en el siguiente teorema. Teorema 20 Sean B y B ′ bases de los espacios vectoriales V y W , respectivamente, T : V → W una transformación lineal y AT la matriz asociada a la transformación respecto a las bases B y B ′ . Entonces 1. T es invertible, si y solo si, AT es invertible. −1 2. Si T es invertible, entonces A−1 , respecto a las T es la matriz asociada a la transformación lineal T ′ bases B y B. Demostración: La dejamos como ejercicio para el lector. Ejemplo 27: Utilicemos el teorema anterior para determinar si la transformación del Ejemplo 25 es invertible. 2 ′ Sean B y B ′ las bases canónicas de µ R y P1¶ respectivamente. La matriz asociada a T en las bases B y B 1 1 es AT = [ [T (e1 )]B′ [T (e1 )]B′ ] = , cuyo determinante es −2, por lo tanto AT es invertible y en 1 −1 consecuencia, por el teorema anterior, T es invertible. ¤