PRINCIPIOS MATEM´ATICOS PARA CIENCIAS EX´ACTAS Y
Transcripción
PRINCIPIOS MATEM´ATICOS PARA CIENCIAS EX´ACTAS Y
PRINCIPIOS MATEMÁTICOS PARA CIENCIAS EXÁCTAS Y TECNOLOGÍA AVANZADA Tonatiuh Matos(1) Petra Wiederhold(2) (1) Departamento de Fı́sica, Centro de Investigación y de Estudios Avanzados del IPN, A.P. 14-740, 07000 México D.F., México. E-mail address, 1: [email protected] URL: http://www.fis.cinvestav.mx/~tmatos (2) Departamento de Control Automático, Centro de Investigación y de Estudios Avanzados del IPN, A.P. 14-740, 07000 México D.F., México. E-mail address, 2: [email protected] A nuestra pasión: Ursula y Tiuh 1991 Mathematics Subject Classification. Curso de Matemáticas Abstract. Curso de Matemáticas para estudiantes de ciencias exáctas y tecnologı́a avanzada. Contents 1. Prefacio 2. Nomenclatura Part 3. 4. 5. 6. 7. vi viii 1. PRELIMINARES Conjuntos Mapeos Producto Cartesiano y Relaciones Operaciones El Conjunto Ordenado ℜ Part 2. ÁLGEBRA 1 2 4 8 11 12 17 Chapter 1. ESTRUCTURAS ALGEBRAICAS BÁSICAS 1. Grupos y Semigrupos 2. Homomorfismos 3. Subgrupos y Grupos cociente 4. Anillos y Campos 5. Ideales y Anillos Cociente 19 19 21 22 24 26 Chapter 2. ESPACIOS VECTORIALES 1. El Espacio Vectorial ℜn 2. Definición de Espacio Vectorial 3. Subespacios Vectoriales 4. Homomorfismos 5. Independencia Lineal y Bases 6. Transformaciones Lineales 7. Álgebras 29 29 30 31 32 34 37 38 Chapter 3. MATRICES 1. Mapeos Lineales y Matrices 2. Isomorfismos 3. Ecuaciones Lineales 4. Transpuesta e Inversa de Matrices 41 41 43 47 49 Chapter 4. DETERMINANTES 1. Definición 2. Matrices Similares 3. Invariantes de Matrices Similares (Vectores y Valores Propios) 53 53 57 58 Chapter 5. FORMAS CANONICAS 63 iii iv CONTENTS 1. Introducción 2. Forma Canónica de Jordan 3. Forma Canónica Natural Part 3. VARIABLE COMPLEJA Chapter 6. EL PLANO COMPLEJO 1. Los Números Complejos 2. Funciones en el Plano Complejo 3. La Derivada en el Plano Complejo 4. Funciones Armónicas 5. La Integral en el Plano Complejo 6. La Integral de Cauchy 63 69 73 77 79 79 80 84 88 90 98 Chapter 7. SERIES 1. Series en el Plano Complejo 2. Series de Taylor en el Plano Complejo 3. Series de Laurent 4. Polos y Residuos 5. Evaluación de Integrales 103 103 105 107 111 118 Chapter 8. GEOMETRIA DEL PLANO COMPLEJO 1. Transformaciones Conformes 2. Superficies de Riemann 125 125 130 Part 4. 133 ANALISIS Chapter 9. ESPACIOS MÉTRICOS Y UNITARIOS 1. Estructuras sobre ℜ y ℜn 2. Espacios Métricos. 3. Espacios Normados 4. Espacios Euclideanos. 5. Espacios Unitarios 135 135 140 145 150 153 Chapter 10. ESPACIOS DE HILBERT Y BANACH 1. Sistemas Ortonormales Completos. 2. Operadores Adjuntos. 157 157 164 Chapter 11. ESPACIOS CON MEDIDA 1. Medida 2. Integración en espacios con Medida 3. Espacios Lp 4. Desarrollo de Fourier en L2 5. Funciones Especiales 173 173 177 181 183 184 Part 5. 191 ECUACIONES DIFERENCIALES Chapter 12. ECUACIONES DIFERENCIALES ORDINARIAS 1. Métodos de Solución 2. Transformadas Integrales 3. Método de Series 193 193 199 204 CONTENTS v Chapter 13. ECUACIONES DIFERENCIALES PARCIALES 1. Métodos de Solución 2. Separación de Variables 3. Método de series de Fourier 4. Funciones de Green 209 209 210 220 221 Part 6. 227 TOPOLOGÍA Chapter 14. ESPACIOS TOPOLÓGICOS 1. Definición y Ejemplos 2. Cerradura, Interior y Frontera 3. Funciones Continuas 4. Topologı́a cociente 5. Espacios Compactos 6. Espacios Conexos 229 229 233 238 241 243 248 Chapter 15. VARIEDADES DIFERENCIALES 1. Variedades 2. Funciones suaves 3. Vectores Tangentes. 4. Uno formas 251 251 256 258 260 Chapter 16. TENSORES Y P-FORMAS 1. Tensores 2. p-Formas 3. Diferenciación e integración en variedades 4. Derivada de Lie y Derivada Covariante 5. El Tensor Métrico y el Tensor de Curvatura 273 273 278 279 293 300 Chapter 17. HACES FIBRADOS 1. Haces 2. Espacios G 3. Haces Fibrados Principales 4. Haces Vectoriales 311 311 313 315 319 Chapter 18. GRUPOS DE LIE 1. Campos Invariantes por la Izquierda 2. La Función Exponencial 3. La representación Adjunta y la Forma de Maurer Cartan. 4. Representación de Grupos y Algebras de Lie 323 323 326 328 332 Part 7. 335 APLICACIONES Chapter 19. APLICACIONES 1. Ecuaciones Quirales 2. Geometrización de Teorias de Norma 337 337 344 Chapter 20. Indice Analitico 353 vi CONTENTS 1. Prefacio Este trabajo es el resultado de la impartición durante 20 años de las materias de Matemáticas y de Métodos Matemáticos en los Departamentos de Fı́sica, de Ingenierı́a Eléctrica y de Control Automático del Centro de Investigación y de Estudios Avanzados del IPN (Cinvestav), ası́ como en el Instituto de Fı́sica y Matemá ticas de la Universidad Michoacana, en México. También se ha impartido parte del material, incluyendo la parte de topologı́a en cursos especiales de geometrı́a diferencial en las anteriores instituciones y en el Astronomisch-Physikalisches Institut de la Friederich-Schiller-Universitët de Jena, Alemania, en el Institut fër Theoretische Physik, de la Technische Universitë Wien y en el Departament of Physics of the University of British Columbia, en Vancouver, Canada. El temario es básicamente el correspondiente al de la mayorı́a de las instituciones donde se imparte la carrera de Fı́sica y Tecnologı́a avanzada en México, como son el CINVESTAV, la UNAM o la UAM, la Universidad Michoacana, la Veracruzana, etc. y estoy seguro que en otros paı́ses de Ispanoamérica. Este material tiene como objetivo suplir la terrible deficiencia de no haber un curso en español, que corresponda a los temarios de las instituciones de habla ispana, hablado en lenguage espa nol. El objetivo del libro es multiple. El principal es dar al estudiante la idea fundamental de lo que son las matemáticas: las matemáticas son la herramienta que nos ayuda a pensar. Es por eso que el objetivo de estos cursos no ha sido informativo, sino mas bien formativo. Con estos cursos nosotros pretendemos que el estudiante adquiera una formación mı́nima de matemáticas para la investigación en las ciencias y las ingenierı́as. El avance de las ciencias naturales y de la ingenierı́a hace cada vez mas necesario que el estudiante no solo aprenda a calcular en las ramas de las matemáticas que se utilizan en su campo, sino que aprenda a utilizar los teoremas y los resultados emanados de la matemática en toda su connotación. Es por eso que el libro inicia con definiciones muy elementales, pero necesarias para entender el resto del material. Sin embargo, el libro no esta pensado para que el estudiante se convierta en matemático profesional. Esta es la razón por la que para los teoremas que nosotros consideramos demasiado largos de demostrar, no se incluye su demostración, solo se enuncian sus postulados con sus premisas y se utilizan. El libro no pretende ser un compendio completo de matemáticas, ni siquiera de las matemá ticas que se utilizan en alguna rama en especial. Cada capı́tulo de este libro podrı́a extenderse a ser un libro gigante de cada tema. Ese no es el objetivo del libro. Mas bien pretende introducir al estudiante a cada tema, para que cuando necesite de éste, pueda recurrir a libros especializados del tema particular, pero pueda entender este libro especializado con un mı́nimo de dificultad. Los temas tocados por el libro son los temas básicos tı́picos de un curso de matemáticas: Álgebra, Análisis, Variable Compleja, Ecuaciones Diferenciales y Topologı́a, que son los tópicos mı́nimos que un matemático deberı́a dominar. Esta experiencia en la enseñanza de las matemáticas es la que se utiliza en este libro, para que el estudiante adquiera un mı́nimo de formación en matemáticas para su investigación en ciencias o en ingenierı́a. La parte de topologı́a diferencial o variedades diferenciales se agrega, ya que esta área de las matemáticas se ha convertido en una excelente herramienta para la mecánica clásica, la mecánica cuántica, la termodinámica, el control automático, entre otras ramas de la ciencia y la tecnologı́a. 1. PREFACIO vii La compresión de este libro requiere de cursos previos de matemáticas. El material aquı́ contenido esta pensado para tres semestres de mas o menos 40 horas de los cursos avanzados en las carreras de ciencias o para las maestrı́as en ciencias e ingenierı́as. El último tema, topologı́a, podrı́a ser un curso optativo en algunas de estas maestrı́as. Las matemáticas son por lo general sencillas. Toda la dificultad de entenderlas radica en el hecho de cómo estudiarlas. A diferencia de otras materias de la escuela, el aprendizaje de las matemáticas es un proceso lineal, no se puede entender un material si no se ha comprendido y estudiado con cuidado todo el material anterior. Generalmente, la razón por la que las matemáticas se dificultan es porque no entendemos un concepto y generalmente este no-entendimiento viene porque no entendimos algún concepto anterior. Generalmente no nos damos cuenta de esto. Nosotros recomendamos leer la introducción de este libro con mucho cuidado. Parecerá que todo es fácil, hasta trivial. Pero las bases firmes ayudaran al estudiante a comprender el resto del material. Nosotros hemos optado por dar las ideas claras con toda su abstracción, estamos seguros que a la larga este método facilita mucho el entendimiento de las matemáticas, en vez de dar conceptos intuitivos. Nuestra experiencia es que la acumulación de conceptos intuitivos crea lagunas de conocimiento cada vez más grandes y por lo tanto a una incomprensión de las matemáticas cada vez mayor. También hemos evitado mucho material que a nuestro parecer se deriva fácilmente del material estudiado aquı́. Por eso pensamos que el material contenido en este libro es el mı́nimo necesario para entender una gran cantidad de temas matemáticos, de ninguna forma el material es completo. Es preferible que el estudiante este preparado para aprender más a futuro a que un estudiante “lo sepa todo” de un tema dado. La profundidad de su conocimiento en algún tema estará determinado más bien por las necesidades de su investigación. Es muy común que en los cursos de matemáticas se toquen temas con mucha profundidad que en nuestras investigaciones nunca necesitamos. La necesidad de que los estudiantes de ciencias e ingenierı́a tengan una formación mı́nima en matemáticas es cada vez mas imperiosa. Vivimos la revolución cientı́fico-tecnológica y estos cambios tan vertiginosos en nuestro medio, en nuestras vidas requieren de una preparación más profunda y más especializada, pero sin perder de vista lo general. Es por eso que el libro pretende reducir cada tema de las matemáticas al mı́nimo, pero dando una panorámica general de los temas de mayor importancia de las matemáticas que nos ayudaran en nuestras investigaciones cientı́ficas y tecnológicas, es decir, tocando los temas básicos que nos ayudaran a pensar. Queremos agradecer a todos los estudiantes que nos hicieron el favor de leer el texto y pasarnos correcciones y sugerencias que ayudaron notablemente a mejorar el texto. Especialmente queremos agradecer a Nayeli Azusena Rodrı́guez Briones y a Alberto Vázquez por las correcciones que amablemente nos hicieron llegar, muchas gracias a todos. México D.F., 2008 Tonatiuh Matos y Petra Wiederhold viii CONTENTS 2. Nomenclatura 2.1. Conjuntos. Definición 0.1. . La unión de A con B : A ∪ B La interseccion entre A y B : A ∩ B Conjunto vacio φ A es subconjunto de B: A ⊂ B El complemento del conjunto A: Ac La diferencia entre A y B : A \ B El conjunto potencia de A: P(A) 2.2. Mapeos. Definición 0.2. . Mapeo o función f de E en F : f : E → F Dominio de definición de f : Df Dominio de valores de f : Vf Composición de mapeos: (g ◦ f )(x) = g(f (x)) Mapeo inverso: f −1 Imagen del conjunto X : f (X) Imagen inversa: f −1 (Y ) 2.3. Producto Cartesiano y Relaciones. Definición 0.3. . Producto cartesiano: A × B Relación entre dos conjuntos: (a, b) ∈ R o aRb o a ∼ b Clase de equivalencia de x : [x] El conjunto de todas las clases de equivalencia: E Conjunto cociente: E =E / ∼ Operación binaria: ϕ : E × E ⇀ E Ejemplo 0.4. ϕ(x, y) = x + y, etc. ϕ(x, y) = x · y, 2.4. Conjuntos Especiales. Definición 0.5. . Los números Naturales: N Los números Enteros: Z Los números Racionales: Q Los números Reales: ℜ Los números Complejos: C 2.5. En los reales ℜ. Definición 0.6. . Conjunto parcialmente ordenado: (A, ≤) Los Reales positivos: ℜ+ = {x ∈ ℜ : x > 0} Los Reales negativos: ℜ− = {x ∈ ℜ : x < 0}. El mı́nimo de A: min A El máximo de A: max A El supremo de x: sup x El ı́nfimo de x: inf x ϕ(x, y) = x − y, x, y ∈ E, 2. NOMENCLATURA ix 2.6. Álgebra. Definición 0.7. . Grupo o Semigrupo: (A, ·) Grupo Cociente: E/H Anillo: (A, +, ·) Espacio Vectorial: (K, V, +, ·) o simplemente V Álgebra: (A, +, ·, ◦) Espacios isomofos: V1 ∼ = V2 Subespacios: V1 ⊂sub V1 Cerradura lineal de X : L(X) Linealmente independiente: l.i. La Dimensión de V : dim V = n El conjunto de las Transformaciones lineales o mapeos lineales: L(V1 , V2 ) := Hom(V1 , V2 ) El nucleo de f : ker f El Rango de f : Rgf := dim f (V1 ) 2.7. Matrices. Definición 0.8. . La transpuesta de A: AT El Rango de A : RgA La inversa de una matriz A : A−1 1 0 .. La matriz identidad: I = . 0 1 El determinante de A : det A La Traza de la matriz A: Tr A Delta de Kronecker: δkj = (I)ij Matriz caracteristica de A: A − λI Polinomio carateriztico de A: det (A − λI) Ecuación caracteristica de A: det (A − λI) = 0. Matrix polinomial: U (λ) 2.8. Variable Compleja. Definición 0.9. . Parte Real de z: Re(z) Parte imaginaria: Im(z) Módulo de z: |z| Complejo conjugado: z̄ Lı́mite de f : limz→z1 f (z) = z2 df La derivada de f en z: dz 2 Función armónica: ∇ u = 0 2.9. Espacios Unitarios y Métricos. Definición 0.10. . Espacio Euclidiano o Espacio Unitario: (E, (·, ·)) Espacio normado: (E, k · k) Norma de x: k x k x CONTENTS x es perpendicular u ortogonal a y: x ⊥ y Complemento ortogonal de H: H ⊥ Espacio métrico: (X, ρ) Distancia entre x y y: ρ (x, y) Bola de centro x ∈ X y radio r > 0 : Br (x) Una sucesión: (xn ) o xn Convergencia de una sucesión: lim xn = x o xn → x n→∞ Definición 0.11. . El conjunto de funciones continuas en [a, b] : C ([a, b]) El espacio de polinomios definidos en [a, b] : Pn ([a, b]) Conjunto de las funciones trigonométricas: T ([−π, π]) Polinomio de grado n: pn o pn (x). Polinomios de Legendre: Pn o Pn (x) Polinomios de Bessel Jn Polinomios de Hermite: Hn o Hn (x) Polinomios de Laguerre: Ln Polinomios de Tchebichef de primera clase: Tn Polinomios de Tchebichef de segunda clase: Un Polinomios de Jacobi: Pnν,µ Polinomios de Gegenbauer: Cnλ El espacio de las funciones periodicas en [a, b] : Fp ([a, b]) Espacio Pseudo-Euclidiano o Espacio de Lorentz: L Grupo de isometrias del espacio métrico (X, ρ) : Iso (X, ρ) 2.10. Espacios de Hilbert y Banach. Definición 0.12. Sistema ortonormal: {xi }i∈I P (x, xi ) xi Serie de Fourier: iǫI Operador adjunto de A: A∗ Operador hermitiano de A: A† 2.11. Espacios con Medida. Definición 0.13. Álgebra o Álgebra-σ sobre Ω: F Conjuntos de Borel: E Espacio Medible: (Ω, F ) Medida: µ o m Espacio con Medida: (Ω, F , µ) Medida de Dirac: δx Función indicadora: χA 2.12. Ecuaciones Diferenciales. Definición 0.14. . La ecuación del oscilador armónico y ′′ + ω 2 y = 0. Ecuación diferencial de Legendre: d2 d 1 − x2 dx 2 Pn − 2x dx Pn + n (n + 1) Pn = 0 d2 d 2 2 Ecuación diferencial de Bessel: x2 dx Jn = 0 2 Jn + x dx Jn + x − n d2 d Ecuación diferencial de Hermite: dx H + 2nH = 0 H − 2x n 2 n dx n d d2 Ecuación diferencial de Laguerre: x dx2 Ln + (1 − x) dx Ln + nLn = 0 2. NOMENCLATURA La La La La transformada integral: F (s) = (eq, xs ). transformada de Fourier: xk = exp(ikx) transformada de Laplace: xs =R exp(as) ∞ convolución de f con g: f ∗ g = −∞ f (u)g(x − u)du 2.13. Operadores Diferenciales y Coordenadas. Definición 0.15. . ∂ ∂ ∂ , ∂y , ∂z Operador Nabla: ∇ = ∂x Operador Laplaciano: ∇2 Operador d’Alabertiano: = ∇2 − v 2 ∂ 2 /∂t2 Elemento de linea: dr = (dx, dy, dz) = dx ex + dy ey + dz ez Coordenadas esfericas x = dr = ∇ = ∇·A = ∇2 = r sin(θ) cos(ϕ), y = r sin(θ) sin(ϕ), z = r cos(θ) dr er + rdθ eθ + r sin (θ) dϕ eϕ ∂ 1 ∂ 1 ∂ , , ∂r r ∂θ r sin (θ) ∂ϕ 1 ∂ r2 Ar ∂ (sin(θ)Aθ ) ∂Aϕ 1 1 + + r2 ∂r r sin(θ) ∂θ r sin(θ) ∂ϕ ∂2 1 ∂ 1 ∂ 1 ∂ 2 ∂ r + sin(θ) + r2 ∂r ∂r r2 sin(θ) ∂θ ∂θ r2 sin2 (θ) ∂ϕ2 Coordenadas cilindricas x = dr = ∇ = ∇·A = ∇2 = ρ cos(ϕ), y = ρ sin(ϕ), z = z dρ eρ + ρdϕ eϕ + dz ez ∂ 1 ∂ ∂ , , ∂ρ ρ ∂ϕ ∂z 1 ∂ (ρAρ ) 1 ∂Aϕ ∂Aρ + + ρ ∂ρ ρ ∂ϕ ∂z 2 ∂ 1 ∂ ∂2 1 ∂ ρ + 2 + ρ ∂ρ ∂ρ ρ ∂ϕ2 ∂z 2 Coordenadas nulas ξ = x + vt y η = x − vt Función de Green G(x, y) Delta de Dirac δ (x) 2 La ecuación de onda u = ∇2 u − v 2 ∂∂t2u = ρ(x, y, z) La ecuación de Difusión ∂u ∂t = ∇ · (D∇u) La ecuación de Poisson ∇2 u = ρ(x, y, z) 2.14. Topologı́a. Definición 0.16. . Topologı́a de X: τX Una Vecindad de x: Ux Una Cubierta: U El lı́mite: xi ⇀ x o lim xi = x. La topologı́a relativa o inducida: τA La clausura de A: A xi xii CONTENTS El interior de A: Å La frontera de A: ∂A El conjunto de funciones continuas: M ap(X, Y ) = C 0 (X, Y ) Las proyecciones de X × Y : Πx La inclusión de A en X: i : A ֒→ X hom Espacios topológicos homeomorfos: X ∼ Y El grupo de automorfismos: (Aut(X), ◦) Camino o trayectoria: c Reparametrización de c: ϕ∗ (c) 2.15. Variedades Diferenciales. Definición 0.17. . Variedad real de dimensión n: (M n , τM N ) Carta sobre M n : cα = (Uα , ψα , Vα ) Dominio de la carta: Uα Sistema de coordenadas sobre Uα: (Uα , ψα ) Parametrización de Uα : ψα−1 , Vα Imagen de la carta cα : Vα = ψα (Uα ) i-ésima función coordenada sobre ℜn : ri i-ésima función coordenada del sistema de coordenadas xiα := ri ◦ ψα Funciones de transición: ψαβ := ψβ ◦ ψα−1 Funciones suaves sobre M n : C ∞ (M n , ℜ) Funciones suaves en la vecindad de x: C ∞ (M n , x, ℜ) Imagen recı́proca o “Full-back” de F : F ∗ dif ∼ Nn Variedades difeomórficas: M m = n Espacio tangente en x: Tx M ∂ ∂ tal que ∂x (f ) := ∂r∂ i f ◦ ψ −1 ψ Vector en Tx M n : ∂x i i x x (x) ∂ Base coordenada de Tx M n : i ∂x x i=1,··· ,n 2.16. 1-Formas. Definición 0.18. . La diferencial de F en x: dFx = Fx∗ Espacio cotangente en x: Tx∗ M n Campos vectoriales en M n : T M n 1-formas en M n : T ∗ M n Producto ó paréntesis de Lie: [X, Y ] ϕ-relacionados: dϕx (Xx ) = Yϕ(x) X ϕ-invariante o invariante bajo ϕ : X ◦ ϕ∗ = ϕ∗ ◦ X , o dϕx (Xx ) = Xϕ(x) Imagen reciproca o “pull-back”: Fy∗ Part 1 PRELIMINARES 3. Conjuntos Toda construcción matemática inicia con elementos básicos fundamentales, axiomas y postulados que se aceptan de antemano. Estos elementos son la base de toda la estructura matemática que vamos a construir aquı́. Para nosotros, la base de nuestra construcción van a ser los conjuntos y suponemos que el lector está familiarizado con los conceptos básicos de la teorı́a de conjuntos. Sin embargo, para especificar la notación que usaremos a lo largo del libro, vamos a recordar algunos conceptos básicos, sin detenernos mucho en ellos. Nombramos, por lo general, conjuntos mediante letras mayúsculas y elementos mediante letras minúsculas. Recordamos que si A y B son conjuntos, entonces: * a ∈ A denota que el elemento a pertenece al conjunto A; * a 6∈ A denota que el elemento a no pertenece al conjunto A; * El conjunto A ∪ B = {a | a ∈ A o a ∈ B} es la unión de A y B; * El conjunto A ∩ B = {a | a ∈ A y a ∈ B} es la intersección de A y B; * φ denota el conjunto vacio, el conjunto que no tiene ningún elemento; * A ⊂ B, al igual que A j B, denotan que el conjunto A es subconjunto del conjunto B, lo cual significa que para cualquier elemento x ∈ A implica que x ∈ B; * A ⊂ B puede también denotar que A j B, con A 6= B, es decir, A es un subconjunto propio de B; * A y B son iguales, A = B, siempre cuando A ⊂ B y B ⊂ A; * Sea E el conjunto que denota el conjunto universo, es decir, el conjunto de todos los elementos existentes (o de interés). Entonces, para cualquier conjunto A (siendo entonces un subconjunto de E), Ac = {x ∈ E | x 6∈ A} es el conjunto complementario (o conjunto complemento) de A; * El conjunto A \ B = {x ∈ A | x 6∈ B} es el conjunto diferencia entre A y B. * El conjunto P(A) = {B | B ⊂ A} es el conjnto de todos los subconjuntos de A, y se le llama el conjunto potencia de A. Cuando se trabaja con conjuntos es siempre muy útil la representación de los conjuntos mediante los Diagramas de Venn, vean por ejemplo la figura 1. Cada conjunto se representa por una figura en el plano, por ejemplo un cı́rculo o una elipse, entendiendo que los elementos del conjunto quedan representados por puntos pertenecientes a la figura. Por ejemplo, el caso de dos conjuntos que se intersectan se refleja entonces por el hecho de que las figuras correspondientes tienen puntos en común. A continuación vamos a resumir algunas de las reglas fundamentales para trabajar con conjuntos. Proposición 0.19. Sean E un conjunto universo, y A, B, C subconjuntos de E. Entonces vale lo siguiente: 1) E c = φ, φc = E, 2) (Ac )c = A, 3) A ∪ Ac = E, A ∩ Ac = φ, 4) A ∩ A = A, A ∪ A = A, 5) A ∪ E = E, A ∩ E = A, 6) A ∪ φ = A, A ∩ φ = φ, 7) A ∩ B = B ∩ A, A ∪ B = B ∪ A, 8) (A ∪ B)c = Ac ∩ B c , 9) (A ∩ B)c = Ac ∪ B c . 10) A ∪ (B ∩ A) = A, A ∩ (B ∪ A) = A. 3. CONJUNTOS 3 S Figure 1.T Diagramas de Venn para la unión A B, la intersección A B, el complemento Ac y la resta de conjuntos A \ B. Estos diagramas son muy utilizados para explicar gráficamente las propiedades de conjuntos. 11) Si A ∪ B = E y A ∩ B = φ , entonces A = B c y B = Ac . 12) (A \ B) ∩ C = (A ∩ C) \ (B ∩ C). Todas estas propiedades establecen igualdades entre conjuntos. Las propiedades 8) y 9) son llamadas las Reglas de Morgan. Por lo general hay diferentes formas de proceder para demuestran proposiciones con conjuntos. Por ejemplo, si M y N son conjuntos, para demostrar que M = N , tenemos dos posibilidades: 1. Demostrar que M y N tienen exactamente los mismos elementos, es decir, mostrar que x ∈ M sı́ y sólo sı́ x ∈ N ; 2. O, usando el hecho que M = N sı́ y sólo sı́ A ⊂ B y B ⊂ A, hacer la demostración en dos pasos: Primero se muestra que x ∈ M implica que x ∈ N , y después se muestra que x ∈ N implica que x ∈ M . Ejemplo 0.20. Demostremos, por ejemplo, la regla de Morgan (A ∪ B)c = Ac ∩ B c : Sea x ∈ (A ∪ B)c . Eso significa que x 6∈ (A ∪ B), ası́ que, es falso el hecho que x ∈ A o x ∈ B. Por lo tanto, x 6∈ A y x 6∈ B, es decir, x ∈ Ac ∩ B c , lo cual demuestra que (A ∪ B)c ⊂ Ac ∩ B c . Para mostrar la inclusión contraria, Ac ∩ B c ⊂ (A ∪ B)c , tomemos un elemento x ∈ Ac ∩ B c , eso significa que x 6∈ A y a la vez x 6∈ B, lo cual implica que x 6∈ A ∪ B, ası́ que, x ∈ (A ∪ B)c , completando la demostración. Ejercicio 0.21. Demuestre, con todo detalle, la proposición 0.19. 4 4. Mapeos Los mapeos son la estructura matemática que asocia elementos entre conjuntos. Vamos a definir los mapeos porque los vamos a utilizar intensivamente durante todo el texto y porque el concepto del mapeo es fundamental en matemáticas. En la literatura se usan como conceptos sinónimos al de mapeo también aplicación o función. La definición de mapeo es la siguiente: Definición 0.22. Sean E y F conjuntos. Un mapeo o función f de E en F (denotado por f : E → F ),asocia a cada elemento de E, un único elemento de F . Vean la figura 2. Figure 2. Representación gráfica de un mapeo. Este mapeo va del conjunto E al conjunto F y asocia a cada elemento de E un único elemento de F . Si salieran dos flechas de E o algún elemento de E no tuviera flecha, entonces f no serı́a mapeo. Notación 0.23. f también se puede ver como un conjunto de pares ordenados (a, b), donde a ∈ E y b ∈ F , o como el subconjunto f = {(a, b) | a ∈ E y b ∈ F } que cumple siempre que cuando (a, b) ∈ f y (a, b′ ) ∈ f se sigue que b = b′ . Como es bien sabido, en lugar de (a, b) ∈ f se usa también la notación f (a) = b. Ejemplo 0.24. Sea f : ℜ → ℜ tal que para cada x ∈ ℜ se asocie x → x2 , es decir, la función será, a cada número real le asociamos su cuadrado, tenemos la función f (x) = x2 . Sin embargo, la asociación√contraria f : ℜ+ → ℜ tal que para cada x ∈ ℜ se asocie su raı́z cuadrada f (x) = x, no es un mapeo, ya que a cada número real le estamos asociando dos números (ya no es único), la raı́z positiva y la raı́z negativa. Para que f sea √ mapeo hay que especificar cuál raı́z es la que asociamos, por ejemplo: f (x) = + x. Definición 0.25. Sea f : E → F una función. · El conjunto Df = {x ∈ E | existe y ∈ F tal que y = f (x)} se llama el dominio de definición de f o simplemente dominio de f . · El conjunto Vf = {y ∈ F | existe x ∈ E con f (x) = y} se llama el dominio de valores de f o simplemente codominio de f . 4. MAPEOS 5 Ejemplo 0.26. Para el mapeo f (x) = x2 , el dominio es el conjunto de los números reales y el codominio es el conjunto de los números reales positivos unión el cero. √ Ejemplo 0.27. Para el mapeo f (x) = + x (asignación del resultado positivo solamante), el dominio y el codominio son los números reales no negativos. Definición 0.28. Una función f : E → F se llama · suryectiva ó sobre si Vf = F , esto es, si para todo y ∈ F existe x tal que f (x) = y; · inyectiva ó 1-1 si para todo x, y ∈ Df vale que f (x) = f (y) implica x = y; · biyectiva si f es 1-1 y sobre. Para los ejemplos que siguen vamos a necesitar la siguiente notaci’on. Notación 0.29. Al conjunto de los reales positivos lo denotamos como ℜ+ = {x ∈ ℜ : x > 0} y al de los reales negativos como ℜ− = {x ∈ ℜ : x < 0}. Ejemplo 0.30. La función f : ℜ→ ℜ+ tal que f (x) = x2 es sobre, pues, para todo x ∈ ℜ+ , su raiz cuadrada es un número real cuyo cuadrado es igual a x. Sin embargo, la función f : ℜ→ ℜ tal que f (x) = x2 no es sobre, pues, para todo x ∈ ℜ− , no existe un número real cuyo cuadrado es igual a x < 0. Este mapeo no es 1-1, ya que por ejemplo f (2) = f (−2). Ejemplo 0.31. La función f : ℜ+ → ℜ, x → x2 (f (x) = x2 , con x ∈ ℜ+ ) es una función cuyo dominio de definición es ℜ+ , su dominio de valores también es ℜ+ . Análogamente, la función f : ℜ+ → ℜ+ es 1-1 y sobre, ası́ que es una biyección. Existe una serie de operaciones muy importantes entre funciones. Como veremos mas adelante, estas operaciones en algunos casos tienen estructuras, ya sea algebraica o topológica, que hacen muy rico el trabajo matemático con mapeos. A continuación repasamos algúnas operaciones con funciones, las cuales son de importancia en el trabajo matemático con ellas. a) Restricción de mapeos Definición 0.32. Si f : A → B y g : A → B son mapeos, entonces g se llama la restricción de f si Dg ⊂ Df y g(x) = f (x) para toda x ∈ Dg . b) Composición de mapeos Definición 0.33. Sean f : E ⇀ F y g : F ⇀ G mapeos tales que Vf ⊆ Dg . El mapeo (g ◦ f ) : E ⇀ G. definido por (g ◦ f )(x) = g(f (x)) para x ∈ Df , se llama la composición o la concatenación de f y g. Ver figura 3. Observen que la concatenación es una operación asociativa entre mapeos, es decir, para mapeos g, f, h, (g ◦ f ) ◦ h = g ◦ (f ◦ h). Es claro que la misma operación, en general, no es conmutativa, veamos un ejemplo: Ejemplo 0.34. Sean f y g funciones reales (es decir, de los reales a los reales) tales que f (x) = x + 1 y g(x) = x2 . Entonces f ◦ g(x) = f (g(x)) = f (x2 ) = x2 + 1. Por otro lado g ◦ f (x) = g(f (x)) = g(x + 1) = (x + 1)2 , que es claramente diferente a x2 + 1. Es decir, f y g no conmutan con la operación ◦ Otra operación de mucha importancia entre funciones biyectivas es el mapeo inverso. Hay que tomar en cuenta que esta operación sólo vale entre funciones biyectivas y no en general. Veamos su definición: c) Mapeo inverso 6 Figure 3. Composición de funciones. Aquı́ se ve la composición de la función f con g, o sea g(f (a)). El elemento a de E es mapeado al elemento g(f (a)) de G, pasando por F . Definición 0.35. Sea f : E → F un mapeo 1-1 y sobre. Un mapeo f −1 : F ⇀ E definido por f −1 (y) = x sı́ y sólo sı́ f (x) = y, con y ∈ Vf y x ∈ Df , se llama mapeo inverso de f . Ver figura 4. Figure 4. El mapeo inverso mapea un elemento f (a) de F , en un elemento a de E, tal que si f (a) = b, se tiene que f −1 (b) = a. Para que f este bien definida, la función tiene que ser biyectiva. Observemos que si f −1 es el mapeo inverso de f , entonces Df −1 = Vf y Vf −1 = Df . Notación 0.36. Una función con inversa también se llama invertible o no singular. Ejemplo 0.37. La función f : ℜ → ℜ, con f (x) = x2 no tiene inverso, porque el mapeo f −1 (x2 ) tiene asociados dos elementos, x y −x, por lo que f −1 no es función (f no es 1-1). Sin embargo, la función f : ℜ+ → ℜ+ con f (x) = x2 tiene √ −1 como inverso a f (x) = + x. 4. MAPEOS 7 Ejercicio 0.38. Sean f : E → F y g : F → G mapeos invertibles tales que Vf ⊆ Dg . Demuestre que entonces el mapeo g ◦ f es un mapeo 1-1 de E en G , y (g ◦ f )−1 = f −1 ◦ g −1 . d) Imagen de un conjunto bajo una función Ahora vamos a definir la forma en que no sólo un elemento, sino todo un conjunto de elementos puede ser proyectado o mapeado por una función. Primero vamos a definir la forma directa, es decir, cómo se mapea un conjunto del dominio al codominio. La definición es la siguiente: Definición 0.39. Sea f = E ⇀ F una función y X ⊆ Df . El conjunto f (X) = {f (x) | x ∈ X} se llama la imagen del conjunto X bajo f. Es claro que f (X) = {y ∈ F | existe x ∈ X tal que f (x) = y}, ası́ que, la imagen del conjunto X bajo f es un subconjunto del codominio de la función. Si el codominio de la función coincide con la imagen de su dominio de definición, entonces la función es sobre. e) Imagen inversa de un conjunto bajo una función De la misma forma ahora podemos ver cúal es el conjunto correspondiente en el dominio, de un conjunto del codominio. A este conjunto se le llama la imagen inversa y es importante señalar que la imagen inversa existe independientemente de que la función tenga o no inversa. Formalmente la definición es: Definición 0.40. Sea f : E ⇀ F una función y Y ⊂ F. El conjunto f −1 (Y ) = {x ∈ Df | f (x) ∈ Y } se llama la imagen inversa del conjunto Y bajo f . Observen que la imagen inversa se define para funciones sin exigir que estas sean 1-1, ası́ que, la definición de la imagen inversa, de entrada, no necesariamente está relacionada con la definición del mapeo inverso. La imagen inversa existe sin importar si la función tiene o no inversa. A continuación se resumen algunas propiedades importantes de la imagen y de la imagen inversa de conjuntos. Lema 0.41. Sea f : E ⇀ F una función, X1 y X2 subconjuntos de Df , y Y1 y Y2 subconjuntos de F . Entonces: 1) f (X1 ∪ X2 ) = f (X1 ) ∪ f (X2 ) 2) f (X1 ∩ X2 ) j f (X1 ) ∩ f (X2 ) 3) f −1 (Y1 ∪ Y2 ) = f −1 (Y1 ) ∪ f −1 (Y2 ) 4) f −1 (Y1 ∩ Y2 ) = f −1 (Y1 ) ∩ f −1 (Y2 ) En la segunda propiedad, en general vale solamente la desigualdad, como muestra el siguiente ejemplo: Ejemplo 0.42. Considerese los conjuntos X = {a, b, c, d}, Y = {d, e, h, g}, M = {l, m, n, o} , y un mapeo f : X ∪ Y ⇀ M dado por f = {(a, l), (b, l), (c, m), (d, l), (e, n), (h, m), (g, o)}. Tenemos f (X) = {l, m} , f (Y ) = M , ası́ que f (X) ∩ f (Y ) = {l, m}, pero f (X ∩ Y ) = f ({d}) = {l} lo cual es un subconjunto propio de {l, m}. Ejercicio 0.43. Demuestre, con todo detalle, las propiedades del lema 0.41. Ejercicio 0.44. Sea f : A → B tal que x → f (x) = 1/x. Diga si f es mapeo para 1) A = ℜ, B = ℜ, donde ℜ son los números reales. 2) A = ℜ\{0}, B = ℜ, 8 3) 4) 5) 6) A = ℜ, B = ℜ\{0}, A = ℜ\{0}, B = ℜ\{0}, A = ℜ, B = ℜ ∪ {zapato}, A = ℜ, B = S 1 , donde S 1 es el cı́rculo. 5. Producto Cartesiano y Relaciones En esta sección vamos a estudiar el producto cartesiano entre dos o más conjuntos. Este concepto es importante porque es la base para definir dimensión, espacios vectoriales, etc. Con este concepto también vamos a definir relación y relación de equivalencia, la cual será usada multiples veces en lo que sigue e incluso, se puede dar una definición alternativa de funición. Entonces la definición de producto cartesiano es como sigue: Definición 0.45. Si E1 , E2 , ..., En son conjuntos, entonces el producto cartesiano n-ésimo de estos conjuntos se define como el conjunto de todas las n-uplas (ordenadas) (e1 , e2 , ..., en ) donde para cada i ∈ {1, ..., n}, ei es un elemento del conjunto Ei , es decir: E1 × E2 × ... × En = {(e1 , e2 , ..., en ) | e1 ∈ E1 , . . . , ei ∈ Ei , . . . , en ∈ En } Ejemplo 0.46. El producto cartesiano de dos conjuntos A y B, es el conjunto de pares ordenados de elementos de A y B: A × B = {(a, b) | a ∈ A, b ∈ B}, Alternativamente, un mapeo puede entenderse también como un producto cartesiano de dos conjuntos desde las primeras entradas representan el dominion de la función y la segunda entrada el codominio. Un caso especial del producto cartesiano es cuando todos los conjuntos son iguales, E = E1 = E2 = · · · = En . Entonces, el producto cartesiano E × E × · · · × E se denota por E n , y se nombra la potencia n-ésima del conjunto E : E n = {(e1 , e2 , ..., en ) | ei ∈ E}. Ejemplo 0.47. El Espacio Vectorial Euclidiano ℜn es un ejemplo bien conocido de la potencia de un conjunto, ℜn = ℜ × · · · × ℜ = {(a1 , . . . , an ) | ai ∈ ℜ para todo i ∈ {1, . . . , n}}. En particular, tenemos el Plano Euclidiano ℜ2 = ℜ × ℜ = {(a, b) | a, b ∈ ℜ}. Partiendo ahora del concepto de producto cartesiano podemos definir el importante concepto de relación, el cual es básico para el álgebra. Una relación es básicamente un subconjunto del producto cartesiano, formalmente se define como: Definición 0.48. Sean E1 , . . . , En , conjuntos y E = E1 × E2 × · · · × En el conjunto cartesiano de estos. Una relación sobre E es un subconjunto de E. En particular, si todos los conjuntos E son los mismos, para un conjunto E = E×E×...×E, cualquier subconjunto de la potencia n-ésima de E se llama relación n-ária sobre E. Ver figura 5. El caso más importante es el caso n = 2, la relación se llama entonces relación binaria sobre E. Si denotamos la relación por R, entonces R ⊂ E × E, ası́ que R es un conjunto de pares ordenadas (a, b) con a, b ∈ E. En lugar de (a, b) ∈ R se usa también la notación aRb o, se usa un sı́mbolo apropiado, por ejemplo a ∼ b o a ≤ b o a k b o a ≡ b. 5. PRODUCTO CARTESIANO Y RELACIONES 9 Figure 5. Una relación es representada aquı́ de dos formas. La relación representada es una relación entre números que esta dada por (0,2), (1,1), (2,0), (2,2), (3,4), (6, 6), (7,6), (7,8), (7,9). Obsérvese que a diferencia de los mapeos, una relación es muy general y no guarda reglas especiales. Notación 0.49. En lo que sigue vamos a denotar una relación indistintamente como R o ∼. Ası́, a está relacionado con b, se denota como aRb o a ∼ b. Ejemplo 0.50. Tomemos el conjunto R de los reales y sean a, b ∈ R. Decimos que a y b estan relacionados a ∼ b si a es menor que b. En vez de a ∼ b escribimos a < b y a ∼ lo denotamos por <. Por otro lado, existe una clasificación de las relaciones dada por sus propiedades. Esta clasificación es: Definición 0.51. Una relación binaria R sobre un conjunto E se llama · reflexiva si (x, x) ∈ R , para todo x ∈ E; · antireflexiva si no existe x ∈ E tal que (x, x) ∈ R ; · simétrica si, para x, y ∈ E, (x, y) ∈ R implica (y, x) ∈ R ; · antisimétrica si, para x, y ∈ E, cuando (x, y) ∈ R y (y, x) ∈ R entonces se sigue x = y ; · transitiva si, para x, y, z ∈ E, cuando (x, y) ∈ R y (y, z) ∈ R entonces se sigue (x, z) ∈ R ; · relación de equivalencia si es reflexiva, simétrica y transitiva. Ejemplo 0.52. La relación en R dada por <, no es reflexiva, ya que un número no puede ser menor a si mismo, esto es, < es antireflexiva. Tampoco es simétrica, ya que si a < b, se sigue que b no puede ser menor que a. < no puede ser antisimétrica porque no es antireflexiva, pero ≤ si es antisimétrica. < y ≤ son transitivas. 10 Las relaciones de equivalencia tienen una gran importancia, debido a que dan lugar a una descomposición del conjunto en donde se definen en clases. Esta descomposición separa los conjuntos en subconjuntos disjuntos dando ası́ una clasificación natural del conjunto con esta propiedad. Es por eso que las clases de equivalencia son muy importantes en matemáticas. Por ejemplo, esta descomposición es la base de la construcción de estructuras cocientes. Veamos esto en la siguiente definición. Definición 0.53. Sea ∼ una relación de equivalencia sobre E. Para x ∈ E, la clase de equivalencia de x se define como [x] = {y ∈ E | x ∼ y}. El conjunto E de todas las clases de equivalencia se llama el conjunto cociente de E, el cual se denota también por E/ ∼, vean la figura 6: Figure 6. Una relación de equivalencia separa los conjuntos en subconjuntos disjuntos, sólo relacionados por la relación de equivalencia. Es una manera de clasificar conjuntos en sus partes. E = E/ ∼= {[x] | x ∈ E} = {{y ∈ E | y ∼ x} | x ∈ E} Debido a la reflexividad de una relación de equivalencia ∼ sobre E, la clase [x] es un conjunto no vacı́o pues contiene a x. Es evidente que toda clase [x] es un subconjunto de E. Por lo tanto, la unión de todas las clases de equivalencia es igual al conjunto E. Aplicando la simetrı́a de ∼, es claro que, para x, y ∈ E, x ∼ y implica que tanto x ∈ [y] como también y ∈ [x]. Tomando en cuenta además la transitividad de la relación, es fácil deducir que [x] = [y] sı́ y sólo sı́ x ∼ y. Observese también que clases distintas de equivalencia son disjuntas entre sı́, en resumen podemos escribir esto en el siguente lema. Lema 0.54. Si ∼ es una relación de equivalencia sobre E, y [x] es la clase de equivalencia de x, para x ∈ E, entonces a) x ∈ [x]; b) x ∼ y sı́ y sólo sı́ [x] = [y] , para x, y ∈ E; c) si [x] 6= [y] entonces [x] ∩ [y] = φ, para x, y ∈ E. 6. OPERACIONES 11 Como consecuencia de estas propiedades, el conjunto cociente E/ ∼ es una descomposición del conjunto E, es decir, E/ ∼ = {[x] | x ∈ E} es un conjunto de subconjuntos de E, los cuales son disjuntos por parejas y cuya unión es igual a E. Ejercicio 0.55. Demuestra con detalle el lema 0.54. Ejemplo 0.56. Sea x, y ∈ Z , el conjunto de los números enteros, y sea ∼5 la relación dada por x ∼5 y si x/5 y y/5 tienen el mismo residuo, formalmente si existen representaciones x = k · 5 − r , y = l · 5 − r, con números enteros k y l ( r es el residuo). Tenemos por ejemplo 0 ∼5 5 ∼5 10 ∼5 20 ∼5 −15; 3 ∼5 13 ∼5 −2 ∼5 23 ∼5 588. Es fácil ver que ∼5 es una relación de equivalencia. Entonces, cada clase de equivalencia de esta relación tiene una forma [r] = {x | x/5 deja el residuo r}, lo cual es el conjunto de todos los números enteros representables como k·5r, para algún número entero apropiado k. Resulta que solamente hay cinco clases de equivalencia, dadas por [0], [1], [2], [3], [4]. En particular, la clase [0] es el conjunto de todos los números enteros que son multiples de 5. 6. Operaciones El álgebra abstracta se basa en propiedades de operaciones entre los elementos de un conjunto. Por eso, aquı́ repasamos y formalizamos conceptos elementales relacionados con operaciones. Definición 0.57. Sea E un conjunto. Una operación (binaria) sobre E es un mapeo ϕ : E × E ⇀ E, con Dϕ = E × E. Notación 0.58. Para denotar una operación, usualmente se usa un sı́mbolo apropiado, por ejemplo +, ×, ·, −. Las operaciónes son clasificadas segun sus propiedades. Estas propiedades son fundamentales y definen muchas veces a la operación misma. Según las propiedades de las operaciones se van a definir las estructuras algebraicas. Estas propiedades son: Definición 0.59. Una operación ϕ se llama · Asociativa si ϕ(ϕ(a, b), c) = ϕ(a, ϕ(b, c)), a, b, c ∈ E · Conmutativa si ϕ(a, b) = ϕ(b, a) a, b ∈ E · Con elemento neutro si existe e ∈ E tal que ϕ(a, e) = ϕ(e, a) = a para toda a ∈ E · Invertible por la izquierda si para todo b, c ∈ E, existe a ∈ E tal que ϕ(a, b) = c · Invertible por la derecha si para todo b, c ∈ E, existe a ∈ E tal que ϕ(b, a) = c Ejemplo 0.60. Tomemos de nuevo los números reales ℜ. La operación + : ℜ × ℜ → ℜ, con +(a, b) = a + b, es tal que para todo a, b, c ∈ ℜ, se tiene que +: · Es Asociativa ya que +(+(a, b), c) = +(a + b, c) = (a + b) + c = a + (b + c) = ϕ(a, ϕ(b, c)), a, b, c ∈ E · Es Conmutativa ya que +(a, b) = +(b, a) · Existe 0, elemento neutro tal que +(a, 0) = +(0, a) = a · Es Invertible por la izquierda y por la izquierda ya que existe siempre un número tal que +(a, b) = +(b, a) = c 12 Comentario 0.61. . a) Cada operación binaria, tiene maximalmente un elemento neutro. Para demostrar esto, supongamos que ϕ tiene dos elementos neutros e1 y e2 . Entonces ϕ(e1 , e2 ) = e1 y ϕ(e2 , e1 ) = e2 , pero debido a que e1 y e2 son neutros, se obtiene e1 = e2 . b) Otra manera de entender que significa que ϕ es invertible por la izquierda es la siguiente. Sean b, c ∈ E y consideremos a x como una incognita. Entonces ϕ es invertible por la izquierda si la ecuación ϕ(x, b) = c siempre se puede resolver. En particular esto sucede para el caso especial c = e (para el neutro de ϕ), ası́ que para cualquier b ∈ E, existe a ∈ E tal que ϕ(a, b) = e. Al elemento a se le llama el elemento inverso izquierdo de b. c) Análogamente, ϕ es invertible por la derecha significa que la ecuación ϕ(b, x) = c, con b, c ∈ E para una incognita x, siempre se puede resolver. O sea, existe a ∈ E tal que ϕ(b, a) = e. A este elemento a se le llama el elemento inverso derecho de b. Si la operación es invertible (por la izquierda en este caso), implica que existe x = b−1 que cumple con esta identidad. b−1 es la expresión que se acostumbra para denotar el inverso de b. 7. El Conjunto Ordenado ℜ En esta sección veremos a los números reales como un conjunto ordenado, el orden en estos números es de suma importancia, por eso que les dedicamos una sección especial. Los números reales son conjuntos ordenados y las operaciones en ℜ se “portan bien” con respecto al orden. Para comenzar, daremos la definición de qué significa ordenado. Es un concepto que utilizamos mucho, pero necesita una definición formal. Veamos esto: Definición 0.62. Si A es un conjunto y ≤ es una relación binaria, reflexiva, antisimétrica y transitiva sobre A, entonces ≤ se llama orden parcial sobre A, y (A, ≤) se llama conjunto parcialmente ordenado. Como vemos, esta definición se puede aplicar a cualquier conjunto no necesariamente de números, el orden parcial es un concepto muy general. En los números naturales, enteros, racionales, y reales, con su orden parcial ≤ en ℜ definido por x ≤ y sı́ y sólo sı́ existe k ∈ ℜ, k ≥ 0 tal que x + k = y, todos los números estan ralacionados entre si, es decir, para cualesquiera dos números x, y , o vale x ≤ y o bien y ≤ x. Definición 0.63. Un orden parcial sobre A se llama orden (lineal) si para todo a, b ∈ A se sigue a ≤ b o b ≤ a. Notación 0.64. Para efectuar cálculos en (ℜ, +, ·, ≤), usaremos la notación: x < y sı́ y sólo sı́ x ≤ y y x 6= y. ℜ. Comentario 0.65. Obsevemos que ℜ+ ∪ ℜ− ∪ {0} es una descomposición de Comentario 0.66. N ⊂ ℜ+ y ℜ+ es cerrado bajo las dos operaciones de (ℜ, +, ·). Lema 0.67. Para todo a, b, c ∈ ℜ, a ≤ b implica a + c ≤ b + c , y a ≤ b y c ≥ 0 implica que a · c ≤ b · c. (“Monotonı́a” de + y ·; por eso (ℜ, +, ·, ≤) se llama campo ordenado.) 7. EL CONJUNTO ORDENADO ℜ 13 Ejercicio 0.68. Demostrar el lema anterior. Ejercicio 0.69. Demostrar para a, b, c ∈ ℜ: a) a ≤ b, c ≤ d implica a + c ≤ b + d (adición de desigualdades); b) 0 ≤ a ≤ b, 0 ≤ c ≤ d implica a · c ≤ b · d (multiplicación de desigualdades); c) a ≤ b implica −a ≥ −b; d) a 6= 0 implica a2 > 0. Aplicando estas sencillas leyes de cálculo y el principio de inducción completa, se pueden demostrar muchas formulas que valen para los números naturales o reales. Vamos a ver un ejemplo representativo para recordar el uso de la inducción matemática. Ejemplo 0.70. Demostramos que, para todo número natural n vale n X (0.1) = 1 + 2 + 3 + · · · + n = 1/2 · n · (n + 1). i=1 Vamos a demostrarlo por inducción matemática. Primer paso: demostramos que la fórmula es verdad para n = 1 (inicio de la P inducción): Pues claro, 1i=1 = 1, y por el otro lado 1/2 · 1 · 2 = 1, 1 = 1. Segundo paso: Suponemos que la fórmula es verdadera para n = k (hipótesis de inducción) y asumimos ahora n = k + 1. Hay que demostrar que la fórmula es verdad para este n (demostración de la inducción), aplicando la hipótesis de inducción. Pk Entonces tenemos la hipótesis i=1 i = 1/2 · k · (k + 1), y k+1 X i = k X i + (k + 1) por la hipótesis i=1 i=1 1/2 · k · (k + 1) + (k + 1) 1 1 = (k + 1)( k + 1) = (k + 1)(k + 2), 2 2 lo cual completa la demostración. = Ejercicio 0.71. Demostrar por inducción que: a) para todo n ∈ N y x ∈ ℜ, x > −1, (1 + x)n ≥ 1 + nx ( desigualdad de Bernoulli); b) para todo n ∈ N y x, a ∈ ℜ, 0 ≤ a ≤ 1, (1 + a)n ≤ 1 + (2n − 1)a. En un conjunto ordenado es posible definir un elemento que es mayor a todos o un elemento que es menor a todos. Estos conceptos son los que definen el máximo y el mı́nimo. Su definición formal es: Definición 0.72. Sea a ∈ A, A ⊂ (ℜ, ≤). Se define el mı́nimo y el máximo de A como a = min A sı́ y sólo sı́ a ≤ b para todo b ∈ A, a = max A sı́ y sólo sı́ b ≤ a para todo b ∈ A. Lema 0.73. Para cualquier A ⊂ ℜ, si min A [max A] existe, entonces es único. Demostración 0.74. Suponemos a = min A, y que existe a′ ∈ A tal que a = min A. Entonces a ≤ b para toda b ∈ A y a′ ≤ b para toda b ∈ A, en particular a, a′ ∈ A, ası́ que a ≤ a′ y a′ ≤ a, lo cual implica por la antisimetrı́a de ≤ que a = a′ . ′ 14 Notación 0.75. Recordamos la notación de intervalos en ℜ: si a, b ∈ ℜ, entonces [a, b] = {x ∈ ℜ | a ≤ x ≤ b}, (a, b) = {x ∈ ℜ | a < x < b}, [a, b) = {x ∈ ℜ | a ≤ x < b}, (a, b] = {x ∈ ℜ | a < x ≤ b}. Además se define usualmente [a, ∞) = {x ∈ ℜ | a ≤ x}, (a, ∞) = {x ∈ ℜ | a < x}, (−∞, b) = {x ∈ ℜ | x < b}, (−∞, b] = {x ∈ ℜ | x ≤ b}. Notemos que ∞ es un sı́mbolo que en éste caso significa muy grande, más grande de lo que yo necesito, más grande de lo que yo quiero, tan grande como sea necesario. Pero ∞ es sólo eso, un sı́mbolo, no es un número que pertenezca a los reales. Ejercicio 0.76. Determinar (si existen) los mı́nimos y máximos de los seguientes subconjuntos de ℜ: M1 = [−230, 500), M2 = M1 ∩ Z, M3 = (−∞, √ 0] ∪ [3, 4] ∪ (45, 2000], M4 = (0, √ 2] ∩ Z, M5 = [0, √2) ∩ Z, M6 = [0, √2] ∩ Z, M7 = (0, 2) ∩ Z, M8 = [−1, ∞). Otros conceptos importantes en un conjunto ordenado son el de cota superior y el de cota inferior. Estos conceptos están intimamente relacionados con los anteriores de máximo y mı́nimo. Su definición formal es: Definición 0.77. Sea S ⊂ ℜ, S 6= φ y x ∈ ℜ. x se llama cota superior de S si y ≤ x par toda y ∈ S. x se llama cota inferior de S si y ≥ x para toda y ∈ S. S se llama acotado por arriba [por abajo] si S tiene cota superior [inferior]. S se llama acotado si S tiene cota inferior y cota superior. Notación 0.78. Denotamos OS = {x ∈ ℜ | x es cota superior de S}, US = {x ∈ ℜ | x es cota inferior de S}. Resumen 0.79. De una forma análoga a la definición de cota superior y cota inferior, también podemos definir, supremo e ı́nfimo del conjunto S, y denotarlos como sup S y inf S, los cuales se definen como: x = sup S sı́ y sólo sı́ x ∈ ℜ tal que y ≤ x para toda y ∈ S, y además, para todo z ∈ OS (es decir, z ∈ ℜ tal que s ≤ z para toda s ∈ S) se sigue x ≤ z. x = inf S sı́ y sólo sı́ x ∈ ℜ tal que y ≥ x para toda y ∈ S, y además, para todo z ∈ US (es decir, z ∈ ℜ tal que s ≥ z para toda s ∈ S) se sigue x ≥ z. Comentario 0.80. Algunas observaciones sobre este tema nos ayudaran a ordenar conceptos: - Cotas superiores e inferiores pueden no existir 7. EL CONJUNTO ORDENADO ℜ 15 - Aunque sup S y inf S existen, pueden no pertenecer a S - Si max S [min S] existe, entonces existe sup S [inf S] y sup S = max S ∈ S [inf S = min S ∈ S]. Ejercicio 0.81. Investigar si los siguientes conjuntos tienen cotas superiores/inferiores, y si los tienen decir cuáles son y determinar, si existen, supremos e infimos: C1 = [1, ∞), C2 = (1, ∞), C3 = { n1 | n ∈ N }. Ejercicio 0.82. Demuestrar que, si S ⊂ ℜ y p es una cota superior de S tal que p ∈ S, entonces p = sup S. Part 2 ÁLGEBRA CHAPTER 1 ESTRUCTURAS ALGEBRAICAS BÁSICAS La primera parte de nuestro estudio esta dedicada a las estructuras algebraicas. En esta parte vamos a iniciar agregandole a los conjuntos operaciones. Primero una, luego dos y ası́, varias operaciones. Cuando estas operaciones tienen determinadas propiedades, estos conjuntos con operaciones definidas en el conjunto reciben diferentes nombres. Vamos a iniciar con la estructura más simple, un conjunto más una operación, llamada semigrupo. Como esta estructura es tan pobre, (pero importante), la siguiente será una estructura con una operación, pero con inverso y un elemento especial, llamado identidad. A esta estructura se le llama grupo. De esta forma, los conjuntos se van enriqueciendo con operaciones formando estructruas cada vez más ricas e interesantes. Luego agregaremos dos, tres y más operaciones, aunque aquı́ sólo nos limitaremos a las estructuras más conocidas y las más usadas en las ciencias exactas y en la ingenierı́a. 1. Grupos y Semigrupos Los grupos han adquirido suma importancia en muchos campos de aplicación de las matemáticas. En fı́sica y quı́mica la estructura de grupo es fundamental tanto para entender las simetrı́as en teorı́as de campo, en teorı́as de partı́culas elementales, como para resolver ecuaciones diferenciales no lineales. Los grupos son estructuras básicas de las matemáticas. Vamos a iniciar con la definición de semigrupo para a partir de esta definición, dar la definición de grupo. Un grupo es un conjunto provisto de una operación con ciertas propiedades, las cuales generalizan de forma abstracta operaciones que nos son familiares desde niños para calcular con números. Antes de definir un grupo, consideramos entonces un concepto todavı́a más simple, el de semigrupo: Definición 1.1. Un semigrupo es un conjunto E provisto de una operación binaria asociativa · sobre E, se donota por (E, ·). El hecho que · es una operación binaria sobre E significa que, siempre cuando a, b ∈ A, entonces a · b ∈ A. Veamos unos ejemplos: Ejemplo 1.2. Sea A = {f : A ⇀ A} el conjunto de todos los mapeos del conjunto A en sı́ mismo, y consideramos la operación ◦ de composición (concatenación) entre mapeos, entonces (A, ◦) es un semigrupo. Observamos que (A, ◦) además tiene un elemento especial: un elemento neutro, el mapeo identidad IA definido por IA (x) = x para todo x ∈ A, pues, definitivamente IA ◦ f = f ◦ IA para cualquier f ∈ A. Notación 1.3. Si un semigrupo E tiene un elemento identidad, es decir, si tiene un elemento e ∈ E tal que e · a = a para todo a ∈ E, el semigrupo se llama monoide. 19 20 1. ESTRUCTURAS ALGEBRAICAS BÁSICAS Ejemplo 1.4. Sea A un conjunto arbitrario (por ejemplo, de ”letras y cifras”). Una secuencia finita de elementos de A la llamamos una palabra sobre A, es decir, una palabra tiene la forma (a1 , a2 , a3 , ..., an ), con n ≥ 1, n natural, ai ∈ A para todo i. El número n es llamado longitud de la palabra. Adicionalmente se considera la palabra vacı́a, denotada por φ y definida como la secuencia de longitud cero (la cual no contiene ningún elemento). Entonces el conjunto de palabras sobre A está dado por E = {(ai )ni=1 , n ∈ N, ai ∈ A para toda i = 1, ..., n} ∪ {φ}. Definimos ahora la adición de palabras como: (a1 , a2 , a3 , ..., ak ) + (b1 , b2 , b3 , ..., bl ) = (a1 , a2 , a3 , ..., ak , b1 , b2 , b3 , ..., bl ) Es evidente que (E, +) es un semigrupo, llamado el semigrupo de las palabras, el cual tiene importancia básica en teorı́as de la computación. La adición + aqui definidida es claramente no conmutativa y tiene un elemento neutro: la palabra vacı́a. Con esto ya estamos listos para la definición de grupo. Definición 1.5. Un grupo (E, ·) es un semigrupo con elemento neutro y elementos inversos, es decir: 1) (E, ·) es semigrupo 2) Existe e ∈ E tal que e · a = a 3) Para todo a ∈ E existe x ∈ E tal que x · a = e. A x se le denota por a−1 . Notación 1.6. En caso de que la operación · sea además conmutativa, (E, ·) se llama grupo Abeliano o grupo conmutativo. Antes de considerar unos ejemplos de grupos, observamos los siguientes detalles y propiedades elementales: Comentario 1.7. Sea E grupo y a ∈ E. Según la definición, existe x ∈ E tal que x·a = e, es decir, x es un “inverso por la izquierda” de a. Pero x·a·x = e·x = x. Por otro lado, existe y ∈ E tal que y · x = e. Eso significa (y · x)a · x = y · x, en consecuencia e · a · x = e, entonces a · x = e , es decir, x es a la vez ”inverso por la derecha” de a. El elemento x se llama inverso de a y se denota por a−1 . Comentario 1.8. En un grupo: * Para cada a ∈ E existe a−1 ∈ E tal que a−1 · a = a · a−1 = e, lo cual significa que las ecuaciones x · a = e y a · x = e, con a ∈ E, x incognita, siempre se pueden resolver. * Para cada a ∈ E, su inverso a−1 es determinado de manera única. * El elemento neutro también es determinado de manera única. Además, según la definición, el neutro primero es un ”neutro por la izquierda”. Sin embargo, con e · a = a tenemos también a · e = a · (a−1 · a) = (a · a−1 ) · a = e · a = a, ası́ que, e es a la vez un neutro ”por la derecha”. En consecuencia: * Para toda a ∈ E, se tiene que e · a = a · e = a. * Para a, b, c ∈ E, a · c = b · c implica que a = b, lo cual es fácil de deducir. * Para a, b ∈ E, (a · b)−1 = b−1 · a−1 , puesto que (b−1 · a−1 ) · (a · b) = −1 b · (a−1 · a) · b = e. Ahora analizamos unos ejemplos : Ejemplo 1.9. (Z, +) el conjunto de los números enteros con la suma ordinaria, es un grupo abeliano. Su neutro es el número 0; para cada entero a, su inverso es 2. HOMOMORFISMOS 21 el número −a. Asimismo, los números racionales Q, los reales R, y los complejos C, cada uno con la suma ordinaria, son grupos abelianos. Ejemplo 1.10. (Z, ·), el conjunto de los enteros con el producto ordinario, es un semigrupo conmutativo, cuyo neutro es el número 1. Sin embargo, no es un grupo, puesto que para cualquier entero a diferente de 1, su inverso multiplicativo serı́a el número a−1 = a1 , el cual no es entero y el 0 no tiene inverso. Ejemplo 1.11. El conjunto Q de los racionales, igualmente como el de los reales R y el de los complejos C, con el producto ordinario ·, son semigrupos conmutativos con el neutro 1, pero no son grupos. Eso se debe a que el número 0, el cual es el neutro aditivo, no tiene inverso multiplicativo, puesto que 10 no es un número. Por otro lado, es evidentemente que (Q \ {0}, ·), (R \ {0}, ·) y (C \ {0}, ·) son grupos abelianos. Ejemplo 1.12. Sea A un conjunto y F = {f : A ⇀ A, biyectiva}, el conjunto de los mapeos biyectivos de A en sı́ mismo. Entonces (F , ◦) con la operación de la composición, es un grupo, en general este grupo no es abeliano. El neutro de este grupo (su unidad) es el mapeo identico IA : A ⇀ A definido por IA (x) = x para toda x ∈ A. El elemento inverso para cada f ∈ F es el mapeo inverso f −1 , cuya existencia está asegurada para cualquier biyección. (F , ◦) se llama el grupo de permutaciones del conjunto A, cada f ∈ F es llamado una permutación de A. Ejercicio 1.13. . 1) Demuestre que Z2 = ({1, −1}, ·) es un grupo. 2) Sea el conjunto A = {a, b, c}. Defina un producto + en A de tal forma que (A, +) sea un grupo. 3) ¿Se puede definir + de tal forma que (A, +) sea abeliano? Ejercicio 1.14. Sea O(n) = {O | O es matriz n × n con OT = O−1 }. Demuestre que este conjunto es un grupo con la multiplicación de matrices. Ejercicio 1.15. Sea el conjunto SU (2) = {U | U es matriz 2 × 2 compleja a b U = , con d = a∗ y c = −b∗ }, donde * significa complejo conjugado. c d Demuestre que SU (2) es un grupo con el producto entre matrices. Observe que det U = 1. 2. Homomorfismos Las estructuras algebraicas suelen tener semejanzas entre ellas. Estas semejanzas se representan en matemáticas utilizando el concepto de mapeos muy epeciales llamados morfismo. Los morfismos nos sirven para relacionar conjuntos con estructuras entre sı́, de tal forma que con estos morfismo, uno puede estudiar propiedades de algún conjunto usando otro, en donde estas propiedades sean más simples de entender. En esta sección daremos sólo la definición de estos morfismos para grupos. Definición 1.16. Sean (E, ·) y (F, ·) grupos y f : E ⇀ F . f se llama homomorfismo si f (a · b) = f (a) · f (b) para toda a, b ∈ E Un homomorfismo se llama · monomorfismo si f es mapeo 1 − 1 · epimorfismo si f es mapeo sobre · isomorfismo si f es biyectiva · automorfismo de E si f es isomofismo y f : E ⇀ E. 22 1. ESTRUCTURAS ALGEBRAICAS BÁSICAS Ejemplo 1.17. Sea el conjunto Z2 = {k0 , k1 } con el producto + definido por k0 + k0 = k0 , k0 + k1 = k1 , k1 + k0 = k1 y k1 + k1 = k0 . Es fácil ver que (Z2 , +) es un grupo. Ahora tomemos la función f : Z2 → Z2 , tal que f (k0 ) = 1 y f (k1 ) = −1. Entonces se tiene que f (k0 + k0 ) f (k0 + k1 ) f (k1 + k0 ) f (k1 + k1 ) = f (k0 ) = 1 = 1 · 1 = f (k0 ) · f (k0 ) = f (k1 ) = −1 = 1 · (−1) = f (k0 ) · f (k1 ) = f (k1 ) = −1 = (−1) · 1 = f (k1 ) · f (k0 ) = f (k0 ) = 1 = (−1) · (−1) = f (k1 ) · f (k1 ) Por lo que f es un homomorfismo entre los grupos (Z2 , +) y (Z2 , ·). Además es un homomorfismo 1-1, por lo que es un monomorfismo, y es sobre, entonces también es un epimorfismo, por lo que f es un isomorfismo entre estos dos grupos. 3. Subgrupos y Grupos cociente Los subconjuntos de un conjunto A con estructura de grupo, no necesariamente son grupos. Eso es fácil verlo, ya que si, por ejemplo, un subconjunto de A no contiene el neutro o no tiene los inversos de todos los elementos del subconjunto, éste no será grupo. Sin embargo, si en este subconjunto se tiene también la estructura de grupo con la misma operación binaria que el original, entonces se sigue la siguiente definición. Definición 1.18. Sea A ⊂ B. Se dice que A es un subgrupo de (B, ·) si (A, ·) también es grupo, si (B, ·) conserva el mismo elemento neutro de (A, ·) Comentario 1.19. El producto del grupo (A, ·) y (B, ·) podrı́an no ser el mismo, si no lo especificamos ası́. Sin embargo, en este texto siempre sobre entenderemos que ambos grupos conserven la misma operación binaria. Notación 1.20. Si el conjunto A es subgrupo del conjunto B, lo vamos a denotar como A ⊂gr B. Ahora vamos a introducir un concepto muy importante en los grupos que despues extederemos para los anillos, es el concepto de grupo cociente. Primero vamos a introducir una ralación de equivalencia en el grupo, con ella, el conjunto se separa en clases de equivalencia formando el conjunto de las clases. Luego podemos definir en ciertas ocaciones una operación en el conjunto de las clases y con este fomar de nuevo un grupo. A este grupo lo llamaremos grupo cociente. Vamos a hacerlo formalmente. Definición 1.21. Sea (E, ·) grupo y H subgrupo de E es decir H ⊂gr E y sean a, b ∈ E. La relación ∼H se define como a ∼H b ⇔ a · b−1 ∈ H Lema 1.22. ∼H es una relación de equivalencia. Demostración 1.23. Chequemos que se cumple la definición de relación de equivalencia. 1) e ∈ H porque H es subgrupo de E. Además si a ∈ H esto implica que a−1 ∈ H por lo mismo. Se sigue que e ∈ H sii a · a−1 ∈ H, esto implica que a ∼H a o sea ∼H es reflexiva. 3. SUBGRUPOS Y GRUPOS COCIENTE 23 2) Sean a ∼H b, por definición esto es sii a · b−1 ∈ H. Por ser subgrupo se sigue que (a · b−1 )−1 ∈ H y esto es sii b · a−1 ∈ H, lo que implica que b ∼H a, es decir ∼H es simétrica. 3) Sean a ∼H b y b ∼H c. Esto implica que a · b−1 ∈ H y b · c−1 ∈ H. Pero H es cerrado bajo ·, por lo que (a · b−1 ) · (b · c−1 ) = a · e · c−1 = a · c−1 ∈ H es decir a ∼H c, lo que implica que ∼H es transitiva. Corolario 1.24. ∼H genera una descomposición de E en clases de equivalencia. Es decir E/ ∼H = {[a] | a ∈ E}. ka Notación 1.25. Vamos a denotar a estas clases de equivalencia como: [a] =not y al conjunto de clases de equivalencia como: E/ ∼H =not K = {ka | a ∈ E} Ejemplo 1.26. Unos ejemplos muy interesantes son los siguientes: 1) ke = {b ∈ E | e ∼H b ⇔ e · b−1 = b−1 ∈ H} = H 2) ka = {b ∈ E | a ∼H b ⇔ b · a−1 = h ∈ H} = {b ∈ E | b = ha} = {h · a ∈ E | h ∈ H} =not H · a donde la última identidad es la notación que usaremos para este conjunto. Para poder definir una estructura de grupo en el conjunto de las clases, es necesario que el grupo original tenga una propiedad más. Esta propiedad es la siguiente. Definición 1.27. Un subgrupo H ⊂ E tal que a · H = H · a para toda a ∈ E se llama subgrupo normal de E. Observemos primero que si el grupo original es abeliano, entonces todos su subgrupos son normales. Pero si el grupo no es abeliano, hay que enteder con cuidado la definición anterior. El hecho de que a · H = H · a implica que si tomamos el elemento a · h, siendo h ∈ H, tiene que haber algún elemento en h1 ∈ H · a, donde h1 no necesariamente es h1 = h · a, pero tal que a · h = h1 . Y viceversa, si tomamos h · a, entonces existe h2 ∈ a · H tal que h · a = h2 . Si siempre existen estos elementos h1 y h2 para todo h ∈ H, el grupo es normal. Entonces podemos dar la estructura de grupo al conjunto K de las clases usando la siguiente definición: Definición 1.28. Sean ka , kb ∈ K clases de E generadas por ∼H . Se define el producto ka ◦ kb = {x · y | x ∈ ka ∈ K, y ∈ kb ∈ K} como el producto entre clases de equivalencia. Con este producto se pueden definir a la vez una estructura de grupo en el conjunto de las clases de equivalencia, usando la siguiente proposición. Proposición 1.29. Sea E grupo y H un subgrupo normal de E. Sean ka ∈ K las clases generadas por ∼H con a ∈ E. Con el producto ka ◦ kb = ka·b , se sigue que (E/ ∼H , ◦) es grupo i.e. (K,◦) es un grupo. Demostración 1.30. Chequemos que se cumple la definición de grupo. a)ka ◦ kb ⊂ K ya que (H · a) · (H · b) = H · (a · H) · b = H · H · a · b = H · a · b (ya que H · H = H), se sigue que. ka ◦ kb = ka·b ∈ K b)(ka ◦ kb ) ◦ kc = (H · a · H · b) · H · c = H · a · (H · b · H · c) c) ke ∈ K y es el neutro del grupo, ya queka ◦ ke = ka·e = ka d) ka ◦ ka−1 = ka·a−1 = ke 24 1. ESTRUCTURAS ALGEBRAICAS BÁSICAS Notación 1.31. Al grupo K se le denota como K = E/H y se le llama el grupo cociente de E por H. El siguiente ejemplo nos dará mayor claridad sobre las definiciones anteriores. Ejemplo 1.32. Sea (Z, +) y H = {2n | n ∈ Z}, el grupo de los enteros pares. Entonces (H, +) es subgrupo normal de (Z, +). Veamos esto con detalle. Observemos que la relación ∼H para los elementos a, b ∈ Z es tal que si a ∼H b, se tiene que a + (−b) ∈ H, lo cual implica que a − b debe estar en H, es decir, debe ser par. Pero esto solo pasa si ambos a y b son pares o ambos son impares. Vamos a definir las clases de equivalencia de los pares y las clases de equivalencia de los impares en los enteros como: k0 = {b ∈ Z | b ∼H 0} = H k1 = {b ∈ Z | b ∼H 1} = {2n + 1, n ∈ Z} k2 = H es decir, K = {k0 , k1 }. Observemos que con la suma (el producto de grupo) k1 ⊕ k0 k0 k0 k1 k0 ⊕ k1 = k1 k1 k2 = k0 (K, ⊕) es un grupo. Pero ya habiamos visto en el ejemplo 1.17 que este grupo es isomorfo a Z2 , por lo que Z/H = Z2 = Z/{2n | n ∈ Z}. Ejercicio 1.33. Construir Z3 = Z/multiplos de 3 y Z4 = Z/multiplos de 4. 4. Anillos y Campos Otras estructuras algebraicas de mucha importancia son los anillos y los campos. En esta sección veremos la definición de estos. Definición 1.34. Sea A conjunto y · , + operaciones binarias sobre A es decir · : A × A ⇀ A y + : A × A ⇀ A. A la triada (A, +, ·) se le llama anillo si 1) (A, +) es grupo abeliano 2) (A, ·) es semigrupo 3) + y · son distributivos Comentario 1.35. Explı́citamente, un conjunto con las operaciones + y · es un anillo, si se cumple lo siguiente 1) Para toda a, b ∈ A, a + b ∈ A es asociativo. 2) Existe e tal que e + a = a + e = a para toda a ∈ A.A e también se le llama el cero de A y se le denota por e = 0 3) Para toda a ∈ A existe −a tal que a + (−a) = 0 4) a + b = b + a para todos a, b ∈ A 5) a, b ∈ A, se sigue que a · b ∈ A, es decir, el producto es asociativo 6) Para toda a, b, c ∈ A se tiene que el producto es distributivo por la izquierda con la suma, es decir c · (a + b) = c · a + c · b 7) Analogamente por la derecha, esto es (a + b) · c = a · c + b · c Ejemplo 1.36. ({0}, +, ·) es un anillo trivial (Z, +, ·) es el anillo de los enteros (ℜ, +, ·) es el anillo de los reales 4. ANILLOS Y CAMPOS 25 Ejercicio 1.37. Demuestre que (Z, +, ·) y (ℜ, +, ·) son anillos. Entre más ricas sean las estructuras algebraicas, más propiedades tienen. Ahora veremos algúnas de las propiedades más interesantes de los anillos. Sea (A, +, ·) anillo y 0 el neutro de la operación binaria +. Entonces se siguen los siguientes lemás. Lema 1.38. Para todo a ∈ A implica que a · 0 = 0 · a = 0 Demostración 1.39. Como a·0 = a·(0+0) = a·0+a·0, y 0 = −(a·0)+a·0 = −(a · 0) + a · 0 + a · 0, entonces 0 = a · 0 Lema 1.40. (−a) · b = −(a · b) y a · (−b) = −(a · b) Demostración 1.41. Ya que (a · b) + (−a) · b = (a + (−a)) · b = 0 · b = 0 Lema 1.42. (−a) · (−b) = a · b Demostración 1.43. Análogo. Las propiedades anteriores son bien conocidas en los números reales, pero se cumplen en cualquier anillo. Algunos de los tipos especiales de anillos más usados en la literatura son los siguientes Sea (A, +, ·) anillo Definición 1.44. Un anillo (A, +, ·) se llama: · Anillo conmutativo, si · es conmutativo · Anillo con unidad, si A tiene al menos 2 elementos y · tiene elemento neutro (llamado 1). · Anillo sin divisores de cero, si A tiene al menos 2 elementos y a 6= 0 y b 6= 0 implica que a · b 6= 0 para todos a, b ∈ A · Dominio integral, si A es anillo conmutativo, con unidad, sin divisores de cero. · Campo si A es anillo sin divisores de cero cuyo semigrupo multiplicativo (A\{0}, ·) es grupo abeliano. · Semicampo si A es anillo sin divisores de cero cuyo semigrupo multiplicativo (A\{0}, ·) es grupo no abeliano. Ejercicio 1.45. . 1) Exprese explı́citamente todas la propiedades de un campo. 2) Demuestre que (Z, +, ·), (Q, +, ·), (ℜ, +, ·), (C, +, ·), son anillos conmutativos con unidad sin divisores de cero. 3) Demuestre que (Q, +, ·), (ℜ, +, ·) y (C, +, ·), son campos. 4) Demuestre que ({2n | n ∈ Z}, +, ·) es anillo conmutativo sin unidad sin divisores de cero. De forma análoga a como definimos subgrupo, se puede definir subanillo. Definición 1.46. Sea E ⊆ A. (E, +, ·) es un subanillo de A, si E es anillo con el mismo neutros multiplicativo y aditivo de A. 26 1. ESTRUCTURAS ALGEBRAICAS BÁSICAS 5. Ideales y Anillos Cociente En una sección anterior definimos los grupos cociente. Análogamente vamos a definir ahora los anillos cociente y algúnas de sus propiedades más interesantes. Sean (A, +, ·) anillo y (H, +, ·) un subanillo de A. Claramente se tiene que (H, +) tiene que ser subgrupo abeliano de (A, +). Pero si (H, +) es abeliano, esto implica que (H, +) es un subgrupo normal de (A, +). Entonces podemos construir (A, +)/∼H = A/H = K. Si ka , kb ∈ K, se tiene que ka ⊕ kb = {m + n | m ∈ ka , n ∈ kb } = ka+b Analogamente definimos en el semigrupo (H, ·) ka ⊙ kb = {m · n | m ∈ ka , n ∈ kb } = {m · n | m ∈ H + a, n ∈ H + b} = {(k1 + a) · (k2 + b) = k1 · k2 + k1 · b + a · k2 + a · b, k1 , k2 ∈ H} Proposición 1.47. Sea (A, +, ·) anillo y H ⊂ A subanillo de A y sean a ∈ A y h ∈ H. Entonces la triada (A/∼H , ⊕, ⊙) es un anillo si a · h ∈ H y h · a ∈ H, con ka ⊕ kb = ka+b ka ⊙ kb = ka·b = {h + a · b, h ∈ H} = H + ab Ejercicio 1.48. Probar la proposición formalmente. Notación 1.49. Al anillo (A/H, +, ·) se le llama anillo cociente y a H se le llama un ideal en A. Ejemplo 1.50. Sea el anillo (Z, +, ·). El conjunto H = ({3n | n ∈ Z}, +, ·) es un ideal de Z. Para ver esto, primero veamos que H es un subanillo de Z : 1) H es cerrado para la suma, ya que 3n + 3m = 3(n + m) ∈ H. 2) Con inversos, ya que −(3n) = 3(−n) ∈ H. 3) H es cerrado para el producto, ya que 3n · 3m = 3(3nm) ∈ H. Entonces H es subanillo de Z. Además: + y · son asociativos. El neutro de la suma es 0 = 3 · 0 Comentario 1.51. (H, +, ·) es anillo conmutativo sin divisores de cero, pero no tiene unidad, ya que (1 6= 3n). Ejemplo 1.52. Ahora chequemos que H es ideal. Para ver esto, falta ver que el producto de un elemento de H con cualquier elemento de Z pertenece a H. Pero esto es asi, ya que (3n) · m = 3(nm) ∈ H. Entonces Z3 = (Z/H, +, ·) es un anillo cociente. Ahora veamos como se ve este anillo cociente. Los elementos ka se pueden escribir como: a, b ∈ Z, a ∼H b ssi a − b ∈ H, es decir ssi a − b es multiplo de 3 y esto es ssi a y b dejan el mismo resto en sus divisores entre 3, es decir, si a = 3l1 + r, y b = 3l2 + r. Entonces se tiene que, k0 = H k1 = {3n + 1 | n ∈ Z} k2 = {3n + 2 | n ∈ Z} k3n = k0 , k3n+1 = k1 , k3n+2 = k2 5. IDEALES Y ANILLOS COCIENTE 27 Si las operaciones entre las clases de equivalencia están dadas por ka ⊕ kb = ka+b ka ⊙ kb = ka·b se tiene entonces que la suma y el producto están dados respectivamente por ⊕ k0 k1 k2 k0 k0 k1 k2 ka ⊕ kb = k k0 1 k1 k2 k2 k2 k0 k1 y ⊙ k0 k1 k2 k0 k0 k0 k0 ka ⊙ kb = k k2 1 k0 k1 k2 k0 k2 k1 Por lo que H es un ideal. Ejercicio 1) ¿Cuáles 2) ¿Cuáles 3) ¿Cuáles 1.53. Respondan sin pruebas explicitas a las siguientes preguntas. de los anillos Z2 , Z3 , Z4 no tienen divisores de cero? si tienen división entre cero? son campos? Ejercicio 1.54. Construya explicitamente los ideales de Z4 CHAPTER 2 ESPACIOS VECTORIALES Los espacios vectoriales son la estructura más rica que vamos a ver aquı́ con detalle. Los espacios vectoriales son tan importantes en fı́sica, quı́mica, ingenierı́a, etc. que les vamos a dedicar un capitulo completo a ellos solos. Los espacios vectoriales más conocidos son los que se construyen sobre ℜn . En este capı́tulo vamos a repasar estos espacios y despues vamos a generalizarlos a espacio vectoriales arbitrarios. Estamos suponiendo que el lector esta familiarizado con ℜn , pero para iniciar el tema, vamos a dar un resumen de sus propiedades más importantes. 1. El Espacio Vectorial ℜn Resumen 2.1. Recordemos que el espacio vectorial ℜn , o escrito explicitamente (ℜ , · , + , ⊙), es una estructura algebráica, definida sobre los reales, tal que: X(ℜ, +, ·) es un campo que con la operación + es grupo Abeliano, con neutro 0ℜ y distributividad entre + y ·, y con la operacion ·, (ℜ\{0ℜ }, ·) es grupo Abeliano, con neutro 1ℜ sin divisores de cero: a 6= 0ℜ , b 6= 0ℜ ⇒ a · b 6= 0ℜ X(ℜn , +, ⊙) es espacio vectorial sobre (ℜ, +, ·) tal que (ℜn , +) son grupos Abelianos con neutro 0ℜn X(ℜn , ⊙) es un mapeo de ℜ⊙ℜn en ℜn (es un nuevo tipo de multiplicación); ⊙ es distributiva con + y asociativa con ·, es decir, si se tiene que, a, b ∈ ℜ, x, y ∈ ℜn entonces: a ⊙ (x + y) = (a ⊙ x) + (a ⊙ y) (a + b) ⊙ x = (a ⊙ x) + (b ⊙ x) (a · b) ⊙ x = a ⊙ (b ⊙ x) X⊙ tiene neutro representado por 1ℜ y cumple que 1ℜ ⊙ x = x para todo x ∈ V. En otras palabras, (ℜn , · , + , ⊙) es un espacio vectorial sobre el campo (ℜ, +, ·), donde para x, y ∈ ℜn , x = (x1 , x2 , · · · , xn ), y = (y1 , y2 , · · · , yn ) se tiene: n (1) (2) (3) (4) x + y = (x1 + y1 , x2 + y2 , · · · , xn + yn ), 0ℜn = (0, 0, · · · , 0), −(x1 , x2 , · · · , xn ) = (−x1 , −x2 , · · · , −xn ), ⊙ es la “multiplicación de escalares con vectores”, para k ∈ ℜ, k ⊙ (x1 , x2 , · · · , xn ) = (k · x1 , k · x2 , · · · , k · xn ). Otros conceptos importantes a recordar de espacios vectoriales son: XUn subespacio vectorial H de ℜn es un espacio vectorial tal que H ⊂ ℜn , y (H, ·, +, ⊙) mismo es un espacio vectorial. XLa interpretación geométrica de un punto en ℜn se suele dar de la forma siguiente. Un punto x ∈ ℜn es un vector de traslación, determinado por valor y dirección y representado por una flecha. XLos Homomorfismos son mapeos lineales entre espacios vectoriales (ℜn , ·, +, ⊙) y (ℜm , ·, +, ⊙) sobre el mismo campo ℜ: 29 30 2. ESPACIOS VECTORIALES XSean (ℜn , ·1 , +1 , ⊙1 ) y (ℜm , ·1 , +2 , ⊙2 ) espacios vectoriales y f : ℜn → ℜm una función entre estos espacios. f se llama homomorfismo si f (x +1 y) = f (x) +2 f (y) y f (a ⊙1 x) = a ⊙2 f (x), para cualesquiera x, y ∈ ℜn , a ∈ ℜ. f se llama isomorfismo si es homomorfismo y biyección. XIndependencia y bases en (ℜn , +, ⊙) sobre el campo ℜ. Si X ⊂ ℜn , entonces L(X) = { m X i=1 ai ⊙ xi | ai ∈ ℜ, x1 , · · · , xm elementos distintos de ℜn , m ∈ N } se llama cerradura lineal de X. L(X) es el subespacio más pequeño de ℜn que contiene a X. X se llama linealmente independiente si para cualesquiera elementos distintos x1 , · · · , xm de X, m X ai ⊙ xi con ai ∈ K implica a1 = a2 = · · · = am = 0K . 0V = i=1 X se llama base de ℜn si X es linealmente independiente y L(X) = ℜn . Cada espacio vectorial ℜn tiene una base y cualesquiera dos bases tienen el mismo número n de elementos. Este número n se llama dimensión (vectorial) de ℜn . Por ejemplo dim(ℜn ) = n. La base canónica de ℜn es {(1, 0, · · · , 0, 0), (0, 1, · · · , 0, 0), · · · , (0, 0, · · · , 0, 1, 0), (0, 0, · · · , 0, 1)} Hasta aquı́ hemos recordado las propiedades más importantes de ℜn , en adelante hablaremos de los espacios vectoriales en general. 2. Definición de Espacio Vectorial Los espacios vectoriales son de las estructuras algebraicas más utilizadas en todas las ramás de la ciencia. En fı́sica e ingenierı́a se utilizan intensamente para modelar el espacio, las funciones periódicas, soluciones de ecuaciones lineales y diferenciales, los polinomios, etc. Debido a su rica estructura algebraica, los espacios vectoriales son también muy interesantes para estudiarse desde el punto de vista matemático puro. En este capitulo estudiaremos los espacios vectoriales y sus propiedades más importantes. Empecemos entonces con su definición. Definición 2.2. Sea (K, +, ·) campo y V conjunto. Sean ⊕ : V × V → V y ⊙ : K × V → V operaciones binarias asociativas y distributivas, i.e., se tiene que para todo a, b ∈ K y x, y ∈ V . a) (a · b) ⊙ x = a ⊙ (b ⊙ x) b) (a + b) ⊙ x = (a ⊙ x) ⊕ (b ⊙ x). c) a ⊙ (x ⊕ y) = (a ⊙ x) ⊕ (a ⊙ y) Un espacio vectorial es el ordenamiento (K, V, ⊕, ⊙) tal que (V, ⊕) es grupo abeliano y la identidad 1K de K es tal que 1K ⊙ x = x para toda x ∈ V . El ejemplo más conocido y más utilizado por todos es sin duda el espacio vectorial ℜn . Sin embargo, un caso más general se puede construir con el producto cartesiano del campo sobre el que se define el espacio vectorial. Ejemplo 2.3. Sea V = K n = K × K × · · · × K = {(a1 , · · · , an ) | ai ∈ K para toda i = 1, · · · , n}. Si x = (a1 , · · · , an ) y y = (b1 , · · · , bn ), se pueden definir la suma ⊕ como x ⊕ y = (a1 + b1 , · · · , an + bn ) el producto ⊙ como a ⊙ x = (a · a1 , · · · , a · an ) 3. SUBESPACIOS VECTORIALES 31 entonces (V, ⊕) es grupo abeliano con neutro 0V = (0, · · · , 0) e inverso (−x) = (−a1 , · · · , −an ). Uno de los espacios vectoriales más usados y más importantes que se utiliza en todas las áreas de la ingenierı́a, fı́sica, matemáticas, etc. son los polinomios. Como espacios vectoriales estos se pueden definir como seigue. Ejemplo 2.4. Sea Pn = {a0 + a1 x + a2 x2 + · · · + an xn | ai ∈ K para todo i = 1, · · · , n} el conjunto de los polinomios sobre el campo K. Si se define la suma ⊕ entre polinomios x, y ∈ Pn , con x = a0 + a1 x + a2 x2 + · · · + an xn y y = b0 + b1 x + b2 x2 + · · · + bn xn como: x ⊕ y = (a0 + b0 ) + (a1 + b1 ) x + · · · + (an + bn ) xn el producto ⊙ como a ⊙ x = a · a0 + a · a1 x + · · · + a · an xn entonces (K, Pn , ⊕, ⊙) es un espacio vectoral. Notación 2.5. En lo que sigue, generalmente vamos a denotar las operaciones ⊕ y ⊙ en el espacio vectoral, simplemente como + y · respectivemente y al espacio vectorial simplemente como V . Ejemplo 2.6. El conjunto de funciones periódicas Fp , con la suma y el producto de funciones, también es un espacio vectorial. Ejercicio 2.7. Demuestre con todo detalle que K n es espacio vectorial. Ejercicio 2.8. Sea P = {p(x) |polinomio de grado n}. Demuestre que P es un espacio vectorial con las operaciones estandard entre polinomios. Ejercicio 2.9. Sea H1 = {h(t) | h(t) = a1 cos(ωt) + a2 cos2 (ωt) + · · · + an cosn (ωt)}. Demuestre que H2 es un espacio vectorial con las operaciones estandard entre polinomios. Ejercicio 2.10. Sea H2 = {h(t) | h(t) = a1 cos(ωt) + a2 cos(2ωt) + · · · + an cos(nωt)}. Demuestre que H2 es un espacio vectorial con las operaciones estandard entre polinomios. 3. Subespacios Vectoriales En la misma forma como hemos definido subgrupos y subanillos, se puede definir subespacios vectoriales. Este concepto será el tema de esta sección. Su definición formal es como sigue. Definición 2.11. Sea V un espacio vectorial sobre un campo K y H ⊆ V. H es un subespacio Vectorial de V, si H es espacio vectorial con las mismás operaciones binarias. Para demostrar que un espacio vectorial es subespacio de otro, afortunadamente no es necesario probar todas las propiedades de espacio vectorial del subconjunto, es suficiente con ver que las dos operaciones del subconjunto son cerradas, esto es debido a que las operaciones ya cumplen con todas las propiedades de espacio vectorial de entrada. Esta propiedad la enunciaremos como el siguiente lema. 32 2. ESPACIOS VECTORIALES Lema 2.12. Sea V espacio vectorial sobre un campo K y H ⊆ V . H es subespacio Vectorial de V si 1) Para todos h1 , h2 ∈ H implica que h1 + h2 ∈ H 2) Para todos a ∈ K, h ∈ H implica que a · h ∈ H Demostración 2.13. Se cumplen todas las propiedades de espacio vectorial. Ejemplo 2.14. Sea el plano ℜ2 y H 1 = {(a, b) ∈ ℜ2 | b = ma} con m ∈ ℜ una recta que pasa por el origen. Veamos que una recta que pasa por el origen es subespacio vectorial del plano. Usemos el lema anterior. Entonces (a1 , b1 ) + (a2 , b2 ) = (a1 + a2 , ma1 + ma2 ) = (a1 + a2 , m(a1 + a2 )) ∈ H 1 . Es decir, es cerrado para la suma. Por otro lado se tiene que a · (a1 , b2 ) = (a · a1 , a · b1 ) = (a · a1 , a · (m · a1 )) = (a · a1 , m · (a · a1 )) ∈ H 1 , por lo que la recta también es cerrada para el producto. Entonces esta recta es un subespacio de ℜ2 . Ejemplo 2.15. Sea H 2 = {(a, b) ∈ ℜ2 | b = ma + n}, con m, n ∈ ℜ pero m · n 6= 0 una recta que no pasa por el origen. ¿Es H 2 ⊆ ℜ2 un subespacio vectorial del plano? Veamos esto, si (a1 , b1 ) + (a2 , b2 ) = (a1 + a2 , m(a1 + a2 ) + 2n) ∈ / H 2, este punto no está en la misma recta. Entonces una recta que no pasa por el origen no es subespacio vectorial de plano. Ejemplo 2.16. Sea H 3 = {(a, b) ∈ ℜ2 | b = na} ¿Es H 1 ∪ H 3 ⊆ ℜ2 un subespacio vectorial del plano? Para ver esto, sean x1 = (a1 , b1 ) ∈ H 1 y x2 = (a2 , b2 ) ∈ H 3 , entonces se tiene que x1 + x2 = (a1 + a2 , ma1 + na2 ) ∈ / H 1 ∪ H 3, 1 3 el cual no está en la unión. Por lo tanto H ∪ H no es subespacio vectorial del plano. Generalmente la unión de espacios vectoriales no siempre es un espacio vectorial, pero la intersección sı́, ya que si 1) x, y ∈ H1 ∩ H2 esto implica que x, y ∈ H1 y x, y ∈ H2 y esto implica que x + y ∈ H1 ∩ H 2 2) a ∈ K y x ∈ H1 ∩ H2 esto implica que a · x ∈ H1 y a · x ∈ H2 esto implica que a · x ∈ H1 ∩ H2 Entonces podemos escribir el siguiente Lema 2.17. La intersección de espacios vectoriales, es espacio vectorial. Ejercicio 2.18. Digan si el plano P1 = {(x, y, z) | 3x + 2y − 3z = 0} y el plano P2 = {(x, y, z) | 3x + 2y − 3z = 1} son subespacios de ℜ3 . 4. Homomorfismos Los homomorfismos son una herramienta de mucha ayuda en espacios vectoriales. Para estudiar las propiedades de espacio vectorial, el espacio ℜn es sin duda el más estudiado y el más simple. Basta entonces relacionar todos los espacios homomorfos e isomorfos con el plano n-dimensional para haberlos estudiado todos. Pero la sorpresa es que todos los espacios vectoriales de la misma dimensión, son isomorfos. Esta es la razón por cuál el plano n-dimensional es tan interesante. Para ver esto, iniciemos con la siguiente definición: Definición 2.19. Sean (V1 , ·, +1 , ⊙1 ) y (V2 , ·, +2 , ⊙2 ) espacios vectoriales sobre K. Un homomorfismo entre V1 y V2 es un mapeo que preserva las operaciones, es 4. HOMOMORFISMOS 33 decir f : V1 ⇀ V2 se llama homomorfismo si f (x +1 y) f (a ⊙1 x) = = f (x) +2 f (y) a ⊙2 f (x) para toda x, y ∈ V1 y a ∈ K Como siempre, f se llama: · isomorfismo, si f es homomorfismo y biyección · automofismo, si f es homomorfismo y V1 = V2 Notación 2.20. Dos espacios vectoriales se llaman isomorfos, si existe un isomorfismo entre ellos, se escribe V1 ∼ = V2 Un ejemplo sencillo e ilustrativo usando planos n-dimensionales es el siguiente. Ejemplo 2.21. Sea V1 = ℜn , y V2 = ℜn+1 . El mapeo f : ℜn ⇀ ℜn+1 tal que f ((a1, · · · , an )) = (a1, · · · , an , 0) es un homomorfismo 1 − 1 pero no sobre, ya que ningún (a1 . · · · , an , an+1 ) con an+1 6= 0 es imagen de algún x ∈ ℜn . Algunas de las propiedades generales de los homomorfismos es que estos mapean el cero en el cero y los inversos en los inversos, veamos esto. Comentario 2.22. Sean V1 y V2 espacios vectoriales y f : V1 homomorfismo entre ellos, entonces f (0V1 ) ⇀ V2 un = 0V2 , ya que f (0 · x) = 0 · f (x) f (−x) = −f (x) para toda x ∈ V1 ya que f (x − x) = f (x) + f (−x) Otra propiedad importante de los espacios vectoriales, es que bajo homomorfismos se conservan las propiedades de subespacio, esto es Comentario 2.23. f (V1 ) es subespacio de V2 . Incluso si H es subespacio de V1 , se tiene que f (H) es subespacio de V2 , ya que si x2 , y2 ∈ f (H), y a ∈ K, esto implica que existen x1 , y1 ∈ H con f (x1 ) = x2 y f (y1 ) = y2 , tal que x2 + y2 = f (x1 + y1 ) ∈ f (H) y a · x2 = f (a · x1 ) ∈ f (H). Esto da pie al siguiente Lema 2.24. Sean V1 y V2 espacios vectoriales. Sea H ⊂ V1 y f : V1 ⇀ V2 homomorfismo. Entonces f (H) ⊂ V2 Una relación muy importante entre espacio vectoriales es la relación de ser isomórficos, esta relación es una relación de equivalencia y por tanto separa los espacios vectoriales en clases de equivalencia en el conjunto de espacios vectoriales. Esta separación es muy importante porque al separar este espacio en clases, limita el estudio de los espacios vectoriales a sólo estudiar un representante de cada clase de estos. Para esto tenemos el siguiente lema: Lema 2.25. Sean V1 , V2 y V3 espacios vectoriales y f : V1 ⇀ V2 y g : V2 ⇀ V3 isomorfismos. Entonces a) f −1 es isomorfismo b) f ◦ g es isomorfismo. Ejercicio 2.26. Demostrar el lema. Lema 2.27. Sean V1 y V2 espacios vectoriales. La relación V1 ∼ V2 sii V1 ∼ = V2 son isomorfos, es una relación de equivalencia. 34 2. ESPACIOS VECTORIALES Demostración 2.28. Veamos que ∼ cumple la definición de relación de equivalenca. 1) V1 ∼ V1 , ya que la identidad en V1 es un isomorfismo. 2) Si V1 ∼ V2 , si usamos la inversa del isomorfismos se tendra que V2 ∼ V1 . 3) Si V1 ∼ V2 y V2 ∼ V3 , usando la composición de isomorfismo, tendremos que V1 ∼ V3 . Ejercicio 2.29. Digan en que casos las siguientes funciones son homomofismos: 1.- f : ℜ3 → ℜ2 , tal que f ((x, y, z)) = 2(x, y). 2.- f : ℜ3 → ℜ2 , tal que f ((x, y, z)) = (x − z, y + z). 3.- f : ℜ2 → ℜ2 , tal que f ((x, y)) = (x2 , y). 5. Independencia Lineal y Bases El concepto de independencia lineal se basa en el simple hecho de cómo poder escribir un conjunto de vectores en términos del mı́nimo posible de vectores de otro conjunto. La pregunta que está detrás de este concepto es ¿cuál es el mı́nimo número de vectores con el que yo puedo representar todos los vectores de algún espacio o subespacio vectorial? Entonces, el primer problema que tenemos, es encontrar este número y luego encontrar un conjunto mı́nimo de vectores. Cuando esto se puede hacer, podremos trabajar en muchas ocasiones sólo con estos vectores, sin tomar en cuenta todo el espacio. Vamos a iniciar con la siguiente definición: Definición 2.30. Sea V espacio vectorial sobre el campo K y X ⊆ V . En general X no necesariamente subespacio vectorial de V . Un elemento de V de la forma m X ai · xi , ai ∈ K, x, xi ∈ X todos distintos x= i=1 se llama combinación lineal de los elementos x1 , · · · , xm de X. Con esta definición podemos construir un subespacio vectorial. Para eso definamos la cerradura lineal de un conjunto de vectores. Definición 2.31. Al conjunto de todas las combinaciones lineales de un conjunto, es decir, al conjunto L(X) := {x = n X i=1 ai · xi | ai ∈ K, xi ∈ X elementos distintos} se le llama cerradura lineal de X Lema 2.32. Sea V espacio vectorial y X ⊂ V . L(X) es un subespacio de V . Pn Pn ai xi y y = P Demostración 2.33. Sean i=1 bi · xi , con xi ∈ X y Pn x = i=1P n n xi + i=1 bi · xP ai , bi ∈ K. Entonces x + y = i=1 ai · P i = i=1 (ai + bi ) · xi ∈ L(X) n n ya que ai + bi ∈ K. Además a · x = a · i=1 ai · xi = i=1 a · ai · xi ∈ L(X) ya que a · ai ∈ K. Entonces x + y y a · x ∈ L(X) para todos los vectores x, y ∈ L(X), con a ∈ K. Esto implica que L(X) es el subespacio mı́nimo de V que contiene a X. Corolario 2.34. Sea V espacio vectorial y X ⊂ V . Si X es subespacio de V, se sigue entonces que L(X) = X. 5. INDEPENDENCIA LINEAL Y BASES 35 Demostración 2.35. X ⊆ L(X) ya que si x ∈ X, esto implica que x = a1 · x1 + · · · + an · xn = 1 · x ∈ L(X). Por otro lado, si x ∈ L(X), se tiene que x = a1 · x1 + · · · + an · xn con xi ∈ X y como X es subespacio, se sigue que a1 · x1 + · · · + an · xn ∈ X. Vamos a ver algúnos ejemplos de lo anterior. Ejemplo 2.36. . a) H 1 = {(a, b) ∈ ℜ2 | a, b ∈ ℜ, b = am} una recta que pasa por cero en ℜ2 . Se tiene: L(H 1 ) = {x = a1 (a, am) | a, m, a1 ∈ ℜ} = H 1 b) H 2 = {(a, b) ∈ ℜ2 | a, b ∈ ℜ, b = am + n, m · n 6= 0} una recta que no pasa por el origen. Entonces: L(H 2 ) = = {x = a1 (a, am + n) | a1 b, m, n ∈ ℜ} {x = (a1 a, a1 am + a1 n) | a1 , b, m, n ∈ ℜ} = ℜ2 Por lo que, una recta que no pasa por el origen, no es un subespacio, genera ℜ2 . Con esto ya podemos introducir el concepto de independencia lineal. Definición 2.37. Sea V espacio vectorial sobre el campo K y X ⊂ V un subconjunto arbitrario de V . X se llama linealmente independiente Pn si para cualquiera elementos distintos x1 , x2 , · · · , xn ∈ X se tiene que 0V = i=1 ai · xi , ai ∈ K, implica que necesariamente a1 = a2 = · · · = an = 0K . X se llama linealmente dependiente si X no es linealmente independiente. Pn Es decir, si 0V = i=1 ai · xi implica que al menos un aj 6= 0. En tal caso 0V = aj · P Pn xj + ni=1,i6=j ai ·xi de donde podemos despejar xj como xj = −a−1 j i=1,i6=j ai ·xi . O sea, xj depende de todas los demás vectores en forma lineal. Notación 2.38. Cuando un conjunto de vectores sean linealmente independientes, diremos que son l.i. Al número minimo de vectores con los que podemos escribir todos los vectores de algún espacio o subespacio, se le llama base. Su definición es como sigue. Definición 2.39. Sea V espacio vectorial sobre el campo K y X ⊂ V . X se llama base de V si 1) L(X) = V 2) X es linealmente independiente. Esto es ası́ ya que 1) asegura la representatividad de cada x ∈ V por combinación lineal de los elementos de PnX. Es decir, L(X) ⊂ V implica que x ∈ L(X), lo podemos escribir como x = i=1 ai · xi con cada xi ∈ X y cada ai ∈ K, pero además x ∈ V. Por otro lado, V ⊆ L(X) Pn implica que si x ∈ V entonces x ∈ L(X), esto es, x se puede escribir como x = i=1 ai · xi ∈ L(X) siempre. Pn i=1 ai · xi y x = Pn 2) asegura que la representaciónPesn única, ya que x = b · x , entonces x − x = 0 = (a − b ) · x lo que implica que ai = bi i i V i i i i=1 i=1 Vamos a ver un ejemplo muy representativo. 36 2. ESPACIOS VECTORIALES Ejemplo 2.40. V = K n Si definimos (2.1) n e1 e2 = = (1K , 0K , · · · , 0K ) (0K , 1K , · · · , 0K ) .. . en = (0K , 0K , · · · , 1K ) es una base en K . Es decir, el conjunto E = {e1 , · · · , en } genera todo el espacio K n = L(E), ya que x = (a1 , · · · , an ) = a1 · e1 + · · · + an · en ∈ L(E). Por otro lado, E es linealmente independiente, ya que 0V = a1 · e1 + · · · + an · en = (a1 , · · · , an ) = (0K , · · · , 0K ) implica ai = 0, para toda i. Entonces K n siempre tiene una base. Al conjunto (2.1) se le llama base canónica de K n y su dimensión es n. Ejemplo 2.41. Sea Pn el espacio vectorial de los polinomios de grado n. Entonces, una base de Pn es En = {1, x, x2 , · · · , xn }. Claramente la dimensión del espacio Pn es n + 1. Ejemplo 2.42. En el espacio de las funciones periódicas Fp , el conjunto Ep = {1, cos(θ), cos(2θ), cos(3θ), · · · }, es una base de este espacio vectorial. La dimensión del espacio Fp es infinita. En todo espacio vectorial es posible definir una base. La base canónica es, desde muchos puntos de vista, la más simple. Este hecho lo ponemos en el siguiente lema. Lema 2.43. Todo espacio vectorial contiene una base. La demostración de este lema la dejaremos para libros mas especializados. Aún más fuerte que este lema (y también enunciaremos sin demostración), es el hecho de que para todo espacio vectorial siempre existe una base de éste y el número de vectores de dos bases diferentes es siempre el mismo. Proposición 2.44. Sea V espacio vectorial sobre K y sean X ⊆ V y Y ⊆ V dos bases de V . Si X es finito, implica que Y es finito y tiene el mismo número de elementos que X. En base a esta proposición, es posible entonces hacer la siguiente definición: Definición 2.45. La dimensión de un espacio vectorial V es el número de elementos de la base de V . Notación 2.46. La dimensión de V se denota como dim V = n. El concepto de dimensión esta basado entonces en la existencia de un espacio vectorial y por tanto, del número de vectores de su base. Vamos a ver algunos ejemplos para dejar más claro este concepto. Ejemplo 2.47. dim K n = n pues se necesitan n elementos {ei }ni=1 para representar todo el espacio. Ejemplo 2.48. Sea H 1 = {(a, am)} ⊆ ℜ2 . Una base de H 1 es X = {(1, m)}, entonces se tiene que dim X = 1. Esto implica a su vez que dim H 1 = 1. Ejemplo 2.49. Sea V = {0V }, se tiene que dim V = 0 Ejercicio 2.50. Sean los planos del ejercicio 2.18. Encuentre una base vectorial para el plano que es subespacio de ℜ3 . 6. TRANSFORMACIONES LINEALES 37 Ejercicio 2.51. Den una base para el espacio P del ejercicio 2.8. Ejercicio 2.52. Den una base para el espacio H1 del ejercicio 2.9 y otra para el espacio H2 del ejercicio 2.10. Ejercicio 2.53. Demuestren que H1 = H2 . De una fórmula para representar las bases de los dos conjuntos hasta n = 5. 6. Transformaciones Lineales Los homomorfismos entre espacios vectoriales son de tal importancia, que incluso reciben un nombre especial. En esta sección veremos estos homomorfismos, sus propiedades más importantes y algúnos ejemplos representativos de homomorfismos entre espacios vectoriales. Definición 2.54. Sean V1 y V2 espacios vectoriales sobre el mismo campo K. Se define el conjunto Hom(V1 , V2 ) = {f : V1 ⇀ V2 | f es homomorfismo} Notación 2.55. A los homomorfismo entre espacios vectoriales se les llama transformaciones lineales o mapeos lineales y se denotan por L(V1 , V2 ) := Hom(V1 , V2 ) Vamos a escribir explı́citamente el concepto de transformación lineal. Sea f ∈ L(V1 , V2 ), esto implica que la suma y el producto en los espacios se conservan bajo f , esto es f (x + y) = f (x) + f (y) para todos los vectores x, y ∈ V1 y f (k · x) = k · f (x) para todo k ∈ K, x ∈ V2 . Si ahora tomamos como conjunto base al conjuto de todas las transformaciones lineales, podemos introducir en L(V1 , V2 ) la estructura de espacio vectorial. Vamos a definir entonces la suma y el producto como (f ⊕ g)(x) = (k ⊙ f )(x) = f (x) + g(x) k · f (x) k ∈ K, x ∈ V1 y observemos que (f ⊕ g) ∈ L(V1 , V2 ), ya que + está definida en V2 . Ası́ mismo (k ⊙ f ) ∈ L(V1 , V2 ) ya que · está definido en K × V2 → V2 . Entonces se tiene que f ⊕ g y k ⊙ f son mapeos de V1 en V2 . Éste es un resultado muy importante, porque con él tenemos el siguiente lema. Lema 2.56. Sean V1 y V2 espacios vectoriales. Entonces (L(V1 , V2 ), ·, ⊕, ⊙) es un espacio vectorial sobre K Ejercicio 2.57. Demostrar el lema. La pregunta que surge inmediatamente después de definir los mapeos lineales, es si la composición de mapeos lineales es también lineal y forma un espacio vectorial. Para ver esto, sean f ∈ L(V1 , V2 ) y g ∈ L(V2 , V3 ) y g ◦ f : V1 ⇀ V3 Para ver si g ◦ f ∈ L(V1 , V3 ), hay que checar las propiedades de espacio vectorial, dado que f y g son lineales. Sean x, y ∈ V1 entonces la suma cumple con (g ◦ f )(x + y) = g(f (x) + f (y)) = g ◦ f (x) + g ◦ f (y), por la propiedades de linearidad de ambas funciones. Análogamente, sean x ∈ V1 , k ∈ K, entonces (g ◦ f )(k ·x) = g(f (k ·x)) = g(k · f (x)) = k · (g ◦ f )(x), por lo que ambas propiedades se cumplen. Otro caso interesante es cuando ambos espacios, el de salida y el de llegada son el mismo, i.e., cuando V1 = V2 = V , entonces, claramente L(V, V ) es un espacio vectorial sobre K con las operaciones + y · sobre V . Además, si f, g ∈ L(V, V ) implica que f ◦ g ∈ L(V, V ). Algunas propiedades de estos espacios son: 38 2. ESPACIOS VECTORIALES a) Sea k ∈ K, y f, g ∈ L(V, V ) entonces k · (g ◦ f ) = (k · g) ◦ f = g ◦ (k · f ) ya que para para toda x ∈ V se tiene que [k · (g ◦ f )](x) = k · (g ◦ f )(x) = k · g(f (x)) = (k · g) · (f (x)) = [(k · g) ◦ f ](x) = g(k · f (x)) = g((k · f )(x)) = [g ◦ (k · f )](x) b) Como ◦ es asociativo para todo mapeo, entonces es asociativo para las transfomaciones lineales. c) (g + h) ◦ f = g ◦ f + h ◦ f es distributiva, para f, g, h ∈ L(V, V ). b), c) y la cerradura para ◦ implican que (L(V, V ), +, ◦) es un anillo. 7. Álgebras La última estructura algebraica que veremos aquı́ es la de álgebra. Las álgebras son más ricas en estructura que los espacios vectoriales, ya que en estas se definen tres operaciones binarias. Para definir las álgebras usaremos el concepto de módulo. Al igual que en los espacios vectoriales, los módulos se definen usando dos operaciones binarias definidas en el conjunto con propiedades especiales. La definición de un módulo es la siguiente. Definición 2.58. Sea K anillo. (V, ⊕, ⊗) se llama módulo sobre K si: 1) (V, ⊕) grupo abeliano 2) ⊗ es mapeo de K × V en V, y para toda a, b ∈ K, y para toda x, y ∈ V se tiene: a) (a · b) ⊗ x = a ⊗ (b ⊗ x) es asociativa, b) a ⊗ (x ⊕ y) = (a ⊗ x) ⊕ (a ⊗ y) c) (a + b) ⊗ x = (a ⊗ x) ⊕ (b ⊗ x) son distributivos. Es decir, un módulo consiste de un anillo K, de un grupo abeliano y de una operación que combina elementos de K y V . Con este concepto es más sencillo definir álgebra. Es más, un espacio vectorial, es un módulo muy particular, se tiene: que: Corolario 2.59. Un módulo (V, ⊕, ⊗) es un espacio vectorial, si se cumple a) K es un campo o semicampo. b) 1K ⊗ x = x para toda x ∈ V. Usando la definición de módulo, podemos definir el concepto de álgebra. Definición 2.60. Una estructura (A, +, ·, ◦) sobre K se llama álgebra si 1) K es anillo conmutativo con unidad 2) (A, +, ·) módulo sobre K, con 1K · x = x, para toda x ∈ A 3) ◦ es mapeo de A × A en A con las propiedades a) k · (x ◦ y) = (k · x) ◦ y = x ◦ (k · y) para toda k ∈ K x, y ∈ A (asociatividad). b) z◦ (x+ y) = z◦ x+ z◦ y; (x+ y)◦ z = x◦ z+ y ◦ z, para todos x, y, z ∈ A (distributividad). Ejemplo 2.61. Sea V espacio vectorial sobre el campo K, x ∈ V y k ∈ K. L = (L(V, V ), +, ·, ◦) es un álgebra sobre el campo K con las siguientes operaciones en L(V, V ). + : L(V, V ) × L(V, V ) ⇀ L(V, V ) (f, g) → (f + g)(x) = f (x) + g(x), 7. ÁLGEBRAS 39 · : K × L(V, V ) ⇀ L(V, V ) (k, g) → (k · f )(x) = k · f (x), ◦ : L(V, V ) × L(V, V ) para todas las f, g ∈ L(V, V ). ⇀ L(V, V ) (f, g) → (f ◦ g)(x) = f (g(x)). Corolario 2.62. L es una álgebra asociativa (◦ es asociativa), no-conmutativa (◦ no es conmutativa), con unidad (◦ tiene unidad, el mapeo identidad). Ejemplo 2.63. Sea K campo y K 3 , +, · su espacio vectorial asociado. Entonces el espacio vectorial K 3 , con el producto cruz entre vectores definido por: x × y = (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ) para x = (a1 , a2 , a3 ), y = (b1 , b2 , b3 ), es un álgebra no conmutativa, asociativa. Ejercicio 2.64. Demostrar con todo detalle que K 3 , +, ·, × , donde × es el producto cruz entre vectores, es una álgebra. 0 −r Ejercicio 2.65. Sea o(2) = {o | o es matriz 2 × 2 con o = con r 0 r ∈ ℜ}. Demuestre que este conjunto es una álgebra con las operaciones de matrices. r z Ejercicio 2.66. Sea su(2) = {u | u es matriz 2 × 2 con u = con z ∗ −r r ∈ ℜ y z número complejo}. Demuestre que este conjunto es una álgebra con las operaciones de matrices. CHAPTER 3 MATRICES 1. Mapeos Lineales y Matrices En esta sección vamos a introducir los arreglos matriciales. Las matrices son arreglos que se usan en muchas áreas de la fı́sica, quı́mica, las matemáticas, la computación, etc. Muchas cantidades en todas estas áreas son arreglos que pueden ser representados como matrices. El uso más importante que se le ha dado a las matrices es porque los sistemas de ecuaciones lineales pueden ser representados en forma matricial, y las matrices son una herramienta perfecta para ayudar a resolverlos. Una matriz puede ser definida por sı́ misma, sin necesidad de ser basada en otras definiciones. La existencia de estos arreglos es independiente del álgebra lineal, sin embargo nosotros les daremos un sentido muy claro introduciendolos como representaciones naturales de los mapeos lineales. Con esta analogı́a será más fácil introducir después conceptos que se usan en matrices como rango, dimensión, etc. Iniciemos entonces con este concepto. Sean V1 y V2 espacios vectoriales de dimensión finita bajo un campo K, tal que dim V1 = m y dim V2 = n, entonces existen bases tales que {x1 , x2 , · · · , xm } es base de V1 y {y1 , y2 , · · · , yn } es base de V2 . Sea f ∈ L(V1 , V2 ) con x ∈ V1 y f (x) = y ∈ V2 , con m X aj xj x= j=1 siendo, además, la representación única de x en esa base, con aj ∈ K para todo j = 1, · · · , m. Si mapeamos linealmente al elemento x al espacio vectorial V2 , encontramos que (3.1) f (x) = m X aj f (xj ). j=1 Pn Por otro lado, también y = i=1 bi yi tiene una representacion única en V2 en términos de los números bi ∈ K con i = 1, · · · ., n. Como esta representación es única, se tiene entonces que hay una relación directa entre los números aj y bi . Para ver esta relación, mapeamos linealmente el elemento base xk al espacio V2 . Se tiene que f (xk ) ∈ V2 entonces (3.2) f (xk ) = n X cik yi i=1 En términos de estos números cik ∈ K podemos escribir el elemento x sustituyendo la expresión (3.2) en (3.1), se obtiene 41 42 3. MATRICES f (x) = m X aj a1 n X i=1 = m n X X i=1 j=1 = cij yi i=1 j=1 = n X ci1 yi ! ! = aj cij yi = bi yi = y i=1 + a2 n X n X i=1 m X j=1 ci2 yi ! + · · · + am aj c1j y1 + b1 y1 + b2 y2 + · · · + bn yn , m X j=1 n X i=1 cim yi ! aj c2j y2 + · · · + m X j=1 aj cnj yn P pero como la representación es única, se debe tener que bi = m j=1 cij aj , es decir, los coeficientes de y son totalmente determinados por los coeficientes de ak y los coeficientes cik ∈ K. Estos coeficientes cik los podemos ordenar en la forma más conveniente c11 c12 · · · c1m c21 c22 · · · c2m C= . .. cn1 cn2 · · · cnm y se llama matriz asocidada al mapeo f ∈ L(V1 , V2 ). Noten que estos coeficientes dependen fuertemente de las bases usadas, pero cada par de bases en V1 y V2 fijan k=1···m y determinan unicamente el arreglo (matriz) C, del tipo C = (cik )i=1···n , del tipo (n, m), (n renglones o lı́neas y m columnas). Analogamente, cada matriz C determina unicamente el mapeo f ∈ L(V1 , V2 ). Por eso vamos a describir mapeos lineales con matrices y vamos a asocior a cada matriz un mapeo lineal. Si escribimos a1 b1 a2 b2 x= . y y= . .. .. am bn entonces Cx = y y f (x) = y corresponden a la aplicación del mepeo lineal f a x, siendo ambas expresiones equivalentes. Transportemos las operaciones entre mapeos a operaciones entre matrices. Vamos a ver esto con detalle. Sean f, g ∈ L(V1 , V2 ), k ∈ K y x ∈ V1 , tal que a1 x = ... , am Entonces se tiene: 1.- La suma de mapeos se traduce a la suma de matrices, es decir (f + g)(x) = f (x) + g(x), si a f corresponde la matriz C y a g la matriz D, se tiene que a f + g corresponde a la matriz C + D. (C + D)(x) = Cx + Dx con la suma entre matrices dada por (C + D) = cij + dij , donde ckj y dij son los coeficientes de C y D repectivamente. 2. ISOMORFISMOS 43 2.- Al producto de un número por el mapeo lineal, corresponde el producto de un número por la matriz que representa al mapeo de la forma (kf )(x) = k · f (x). Si B corresponde a (kf ), entonces Bx = k · Cx con el producto dado por bij = kcij 3.- Sean f ∈ L(V1 , V2 ) y g ∈ L(V2 , V3 ), esto implica que g ◦ f ∈ L(V1 , V3 ). A la composición de mapeos corresponde el producto entre matrices, Pn es decir (g ◦f )(x) = g(f (x)) corresponde a B · C = D entre matrices, con dij = k=1 bik ckj , donde bik , ckj y dij son los coeficientes de B, C y D repectivamente. Ejercicio 3.1. Demuesten los puntos 1.-, 2.- y 3.- anteriores. 2. Isomorfismos En esta sección, trataremos particularmente con los mapeos lineales uno a uno y sobre, los isomorfismo. Estos mapeos son muy importantes porque de ellos se desprenden teoremas que pueden ser traducidos directamente a las matrices, que a su vez se traducen en teoremas que serviran para resolver sistemas de ecuaciones lineales. Estos sistemas son uno de los objetivos de este capitulo. Asi que veamos las proposiciones correspondientes a isomorfismos. Empecemos por definir el Kernel o núcleo de un mapeo lineal. En lo que sigue V1 y V2 son espacios vectoriales sobre un cuerpo K. Definición 3.2. Sea f ∈ L(V1 , V2 ) (no necesariamente biyectiva). El núcleo de f es el conjunto ker f = {x ∈ V1 | f (x) = 0V2 } Lema 3.3. Sea f ∈ L(V1 , V2 ). Si ker f es subespacio vectorial de V1 , entonces f (V1 ) es subespacio vectorial de V2 . Ejercicio 3.4. Demostrar el lema. El lema anterior es válido para cualquier mapeo. Si especializamos este lema a los isomorfismos, se tiene este otro lema. Lema 3.5. Sea f ∈ L(V1 , V2 ). Si f es isomorfismo implica que ker f = {0V1 }. Demostración 3.6. Es claro que 0V1 ∈ ker f , ya que f (0V1 ) = f (x − x) = f (x) − f (x) = 0V2 , con x ∈ V1 . Por otro lado, cualquier elemento x ∈ ker f cumple con f (x) = 0V2 . Si hubiera un elemento x ∈ V1 con x 6= 0V1 tal que x ∈ ker f , entonces f (x) = f (0V1 ) = 0V2 , lo cual contradice que f es un mapeo inyectivo. Comentario 3.7. Si el ker f = {0V1 }, ya sabemos entonces que dim ker f = 0 En lo que sigue vamos a ver una proposión que nos ayudará a demostrar algúnos resultados posteriores. Proposición 3.8. Sean V1 y V2 espacios vectoriales sobre el campo K. Sea {x1 , · · · , xm } base de V1 y sea f ∈ L(V1 , V2 ). i) Si f es sobre, implica que V2 = L({f (x1 ), f (x2 ), · · · , f (xm )}) ii) Si f es isomorfismo, implica que {f (x1 ), · · · , f (xm )} es base de V2 Demostración 3.9. Denotamos a M = {f (x1 ), · · · , f (xm )} i) que existe x ∈ V1 , tal que f (x) = y, pero P⊆: Sea y ∈ V2 , f sobre implica P m x= m a x implica que y = f (x) = i i i=i Pm i=i ai f (xi ) ∈ L(M ). ⊇: Sea y ∈ L(M ) se tiene y = i=i ai f (xi ) ∈ V2 pues V2 es espacio vectorial. ii) En particular f sobre implica que V2 = L(M P),r ya que M ⊆ V2 . Demostremos que M es linealmente independiente. Sea 0V2 = i=i ai yi con elementos distintos 44 3. MATRICES y1 , · · · , yr , de M, con r ≤ m. f sobre implica que existe xi ∈ V1 tal que yi = f (xi ), y f mapeo implica que los xP 1 , · · · , xr también son Prdistintos (xi = xj implica Pr f (xi ) = r a f (x ) = f ( a x ), por lo que f (xj )). Entonces 0V2 = i i i i i=i i=1 i=1 ai xi ∈ P ker f está en el núcleo de f . f uno a uno implica que 0V1 = ri=1 ai xi es una representacion del 0 en V1 con distintos x1 , · · · , xr con r ≤ m. Pero {x1 , · · · , xm } es una base, entonces se tiene que ai = 0 para toda i = 1, · · · , r. Corolario 3.10. Sea f ∈ L(V1 , V2 ) con dim V1 = n. Entonces f es isomorfismo sı́ y sólo sı́ dim f (V1 ) = n Demostración 3.11. f isomorfismo implica que f es 1-1 y sobre. Sea {x1 , . . . , xn } una base de V1 . Entonces f (a1 x1 + · · · + an xn ) = a1 f (x1 ) + · · · + an f (xn ) = 0 implica que a1 = · · · = an = 0, y como f es un isomorfismo, esto implica que f (x1 ), . . . , f (xn ) son todos diferentes y forman una base de f (V1 ), por lo que dim f (V1 ) = n. El corolario anterior nos da un criterio para saber si un mapeo es isomorfismo o no. Este criterio también lo podemos obtener usando otra definición útil para esto. Definición 3.12. El Rango de un mapeo lineal f ∈ L(V1 , V2 ) se define como Rgf := dim f (V1 ) Podemos traducir el corolario anterior a esta terminologı́a. Se tiene que f es isomorfismo sı́ y sólo sı́ Rgf = dim V1 . El problema de saber si un mapeo es isomorfismo o no, se reduce entonces a determinar el rango del mapeo. Vamos a determinar Rgf. Para esto tenemos la siguiente proposición. Proposición 3.13. Sea f ∈ L(V1 , V2 ) y X una base de V1 . Entonces el Rgf = Rg(f (X)) = dim L(f (X)). Demostración 3.14. Como X es base de V1 , se tiene que si X = {x1 , . . . , xn }, se sigue que f (X) = {f (x1 ), . . . , f (xn )} existen al menos m < n elementos de f (X) que son l.i., es decir, dim f (X) = m. Sea u ∈ f (V1 ), implica que existe v = a1 x1 + · · · + an xn ∈ V1 , tal que u = f (v) = a1 f (x1 ) + · · · + an f (xn ), de donde aparecen al menos m componentes diferentes en la suma. Por lo que dim f (V1 ) = m = dim f (X). De aqui se sigue que Rgf = dim f (V1 ) = dim f (X). También se tiene que L(f (X)) = f (V1 ), entonces por definición Rgf = dim f (V1 ) = dim L(f (X)) Aquı́ estamos usando de una manera análoga la definición de rango del conjunto de vectores M como Rg (M ) := dim L(M ), la dimensión de la cubierta lineal. Entonces, para saber el rango de una transformación, es suficiente con determinar el rango del conjunto de vectores de algúna base de V1 . Ahora vamos a mostrar un método para calcular el rango de f. Sea V espacio vectorial sobre un campo K y M ⊆ V . El método consiste en escribir la matriz de representación del mapeo. Como el rango del mapeo es el mismo que el de su cubierta lineal, se tiene que Rg (M ) = dim L(M ) = n ya que L(M ) es subespacio de V . Entonces podemos escoger cualquier elemento de la cubierta, el rango será el mismo. Escojamos entonces un elemento de la cubierta que nos de una lectura rápida del rango. Para poder escoger este elemento, observemos primero que existen un conjunto de acciones posibles que no cambian al conjunto L(M ), estas son: a) intercambiar elementos de M. b) multiplicar elementos de M por k ∈ K. 2. ISOMORFISMOS 45 c) sumar m ∈ M a k · x con k ∈ K, x ∈ M. d) eliminar un elemento m ∈ M con m = 0. Llevando a cabo cualquiera de las acciones enumeradas arriba, el conjunto L(M ) seguirá siendo el mismo. Estas acciones se pueden traducir a la matriz correspondiente, estas serian: a) Intercambiar renglones de la matriz de transformación. b) Multiplicar renglones de la matriz por k ∈ K. c) Sumar renglones por un múltiplo de otro renglón. d) Eliminar un renglón de la matriz igual a cero. O hacer lo mismo cambiando la palabra renglón por columna. La receta, entonces, para encontrar el rengo de una transformación lineal, es escribir la matriz de transfomación y reducirla con estas operaciones, hasta ponerla en una manera conveniente para poder leer su rango. Vamos a ver un ejemplos de este proceso. Ejemplo 3.15. Sea f ∈ (ℜ2 , ℜ3 ) y sea la base 1 0 {x1 = , x2 = } ⊂ ℜ2 0 1 1 0 0 {y1 = 0 , y2 = 1 , y3 = 0 } ⊂ ℜ3 0 0 1 La transformación 2 1 2 1 f → A = 1 3 es tal que f (xk ) = 1 3 xk −1 0 −1 0 k = 1, 2, esto es, los elementos de la base se mapean como 2 1 1 0 f( ) = 1 y f( )= 3 0 1 −1 0 por lo que, cualquier elemento de ℜ2 se leera en ℜ3 como 2 1 2 1 0 1 a1 a1 1 3 1 3 ) = a1 +a2 +a2 = ) = f (a1 f( 1 0 a2 a2 −1 0 −1 0 Este mismo proceso no cambia si usamos vectores renglón en vez de vectores columna, lo que se haga para cada columna es análogo para cada renglón. Ahora vamos a reducir la matriz de representación utilizando las operaciones que enunciamos anteriormente. Vamos a indicar arriba o abajo de cada matriz la operación que se va a efectuar para pasar a la siguiente matriz. Se tiene: 2 A= 1 −1 ×2 + 1 −1 2 1 0 3 ∼ −3 1 ∼ 3 −5 ∼ 0 0 −1 0 −1 + ×3/5 46 3. MATRICES · · · ×1/5 1 0 1 0 0 −5 ∼ 0 1 −3/5 −1 −3/5 1/5 El rango de A es de hecho el número de columnas linealmente independientes de A. Esto implica que Rg (A) = 2 y por tanto el rengo de f es también 2. Ejercicio 3.16. Digan el rango de las siguientes transfomaciones lineales: 1. 1 1 0 1 f( )= , f( )= 0 2 1 1 2. 1 1 0 1 0 0 f ( 0 ) = 2 , f ( 1 ) = 1 , f ( 0 ) = −1 0 1 0 −2 1 0 3.- 1 1 0 4 0 2 f ( 0 ) = 2 , f ( 1 ) = 5 , f ( 0 ) = 1 0 −1 0 0 1 2 Ejercicio 3.17. Encuentren eales. 1. 1 1 f ( 0 ) = 2 , f ( 0 1 2. el núcleo de las siguientes transformaciones lin 0 1 0 0 1 ) = 1 , f ( 0 ) = −1 0 −2 1 0 1 1 0 1 0 0 f ( 0 ) = 2 , f ( 1 ) = 1 , f ( 0 ) = −1 0 0 0 −1 1 −1 Ejercicio 3.18. Utilizando transformaciones ientes matrices a una forma diagonal. 1. 1 2 4 5 2. 1 2 −1 4 5 0 2 0 −2 3. 1 2 −1 4 5 0 2 1 2 4. 1 2 −1 1 4 5 0 −1 2 1 2 2 −2 4 −2 1 de invariancia, reduzca las sigu- 3. ECUACIONES LINEALES 47 Ejercicio 3.19. Digan con solo ver las matrices diagonalizadas del ajercicio anterior, cual es la dimensión del núcleo, el rango y cual de las tranformaciones es biyectiva. 3. Ecuaciones Lineales Todo lo aprendido hasta ahora en el capitulo de álgebra lineal, lo vamos a aplicar en la resolución de sistemás de ecuaciones lineales. A partir de aquı́ usaremos la matriz de representación de un mapeo para representar al mapeo mismo. Sea A ∈ L(V1 , V2 ) con dim V1 = m y dim V2 = n. Sea A matriz del tipo (n, m) y sea b ∈ V2 . Usaremos aquı́ a la letra b para representar un vector conocido, esto nos ayudará para escribir el sistema de ecuaciones lineales con la notación estandard, utilizada en la sección anterior. Problema 3.20. Resolver el sistema de ecuaciones lineales (3.3) a11 l1 + · · · + a1m lm = a21 l1 + · · · + a2m lm = .. . an1 l1 + · · · + anm lm = b1 b2 .. . bn en donde los números li ∈ K son desconocidos y los coeficientes aij y bj son conocidos. Observe que encontrar una solución al sistema, es encontrar el conjunto de números li ∈ K que hagan todas las identidades del sistema verdaderas. Vamos a definir el conjunto de vectores {x, b} y la matriz A como l1 b1 a1n · · · a1m .. x = ... , b = ... y A = ... . lm bn an1 · · · anm El problema Ax = b escrito explicitamente, se ve como en (3.3). Entonces el problema que nos hemos planteado es equivalente al problema de trasfomaciones lineales ó matrices. Problema 3.21. Encontrar x ∈ V , tal que Ax = b A Ax = b se le llama ecuación lineal en x. De este problema surgen muchas preguntas: a) ¿Cuantas soluciones hay? b) ¿La solución es unicamente determinada? c) ¿Como escribir el conjunto de soluciones? La existencia de una solución lo podemos resolver con ayuda del siguiente lema. Lema 3.22. Si representamos el mapeo f como A(V1 ) = L({Ax1 , · · · , Axm }), usando la base {x1 , · · · , xm } de V1 , tenemos que Ax = b tienen solución sii b ∈ L({Ax1 , · · · , Axm }) y esto se cumple sii L({Ax1 , · · · , Axm }) = L({Ax1 , · · · , Axm , b}). Demostración 3.23. De la proposición 3.8 se sigue el resultado. Esto implica la igualdad de la dimensión de los dos espacios, es decir Rg({Ax1 , · · · , Axm }) = Rg ({Ax1 , · · · , Axm , b}) 48 3. MATRICES Estos resultados quedaran más claros con algúnos ejemplos. Ejemplo 3.24. Vamos a determinar si el sistema 4l1 + 5l2 + 6l3 −2l1 + 2l2 + l3 l1 + l2 + l3 tiene soluciones. Hagamos 4 5 A = −2 2 1 1 entonces = = = 2 −10 1 6 2 1 y b = −10 1 1 4 5 6 Ae1 = −2 , Ae2 = 2 , Ae3 = 1 1 1 1 Hay que determinar una base simple de L ({Ae1 , Ae2 , Ae3 }) para determinar dim L ({Ae1 , Ae2 , Ae3 }) = Rg (A) Ejercicio 3.25. Llevar la matriz A a su forma diagonal, usando las operaciones lineal. invariates de la cerradura 4 −2 1 1 0 0 5 2 1 ∼ 0 1 0 6 1 1 0 0 1 Por lo tanto Rg (A) = Rg ({Ae1 , Ae2 , Ae3 }) = 3, además b ∈ L ({Ae1 , Ae2 , Ae3 }) . Es fácil ver que L ({Ae1 , Ae2 , Ae3 , b}) = L ({Ae1 , Ae2 , Ae3 }) por lo tanto el sistema tiene solución. Un método muy eficiente para encontrar la solución de un sistema de ecuaciones lineales es el método de Gauβ-Jordan. El método se basa en las operaciones que dejan invariante la cerradura lineal. Estas se traducen en las siguientes operaciones en el sistema. El sistema no cambia sı́ a) Se intercambian ecuaciones b) Se multiplica una ecuación por una constante del campo diferente de cero. c) Se suma un múltiplo de una ecuación con otra. d) Se elimina una ecuación de ceros. Ejercicio 3.26. Resolver el sistema anterior usando el método de GauβJordan. La solución de un sistema sera única sı́ la matriz tiene propiedades muy especiales. Estas propiedades son importantes ya que en tal caso no sólo sabremos que la solución existe, sino además cual es. Veamos. ◦ ◦ Proposición 3.27. Si x es solución de Ax = b, x está únicamente determinada sı́ y sólo sı́ A es mapeo uno a uno y sı́ y sólo sı́ ker A = {0V1 } ◦ Demostración 3.28. ⇒) Sea x única. Sean x, y ∈ V1 con Ax = Ay. Entonces ◦ Ax − Ay = 0V2 , o sea A (x − y) = 0V2 . Como Ax = b, entonces se cumple ◦ que A x + (x − y) ◦ = Ax + A (x − y) = b. Por lo que se tiene también que 4. TRANSPUESTA E INVERSA DE MATRICES ◦ ◦ ◦ 49 ◦ x + x − y es solución. Pero x es única, por lo que x = x + (x − y), se sigue que x = y. Implica entonces que A es uno a uno. ◦ ∧ ◦ ∧ ⇐) Sea A uno a uno, x es solución y sea x también solución. Ax = Ax = b. ◦ ∧ Pero A uno a uno implica que x = x. además A uno a uno implica que el ker A = {OV2 } . 4 5 6 Ejercicio 3.29. Demostrar que A = −2 2 1 tiene una solución 1 1 1 única. Con estas proposiciones ya es entonces posible obtener la solución del sistema de ecuaciones. La solución se construye usando la siguiente proposición. ◦ Proposición 3.30. Sea x una solución al sistema Ax = b. El conjunto de ◦ ◦ todas las soluciones del sistema es {x + h | h ∈ ker A} =not x + ker A. ◦ ◦ Demostración 3.31. i) Sea ◦y ∈ x + ker A, esto implica que y = x + h, con h ∈ ker A es solución ya que A x + h = b + 0 = b. ◦ ◦ ◦ ii) Sea y solución, entonces y = x + y − x . Sı́ escribimos h = y − x, se ◦ ◦ ◦ tiene que y = x + h. Pero Ah = A y − x = Ay − Ax = b − b = 0. Por lo que ◦ h ∈ ker A. Por lo tanto y ∈ x + ker A. En el caso de que el núcleo de la transformación sea solo el conjunto con el cero, se tiene que la transformación correspondiente es biyectiva. Sólo en este caso la solución del sistema correspondiente es única, ya que le podemos sumar a la solución sólo el vector cero. En terminos del rango, esto quiere decir lo siguiente. Proposición 3.32. Sea A matriz del tipo (n, m). Supongamos que Ax = b ◦ ◦ tiene solución x, entonces x es unicamente determinada sı́ y sólo sı́ Rg (A) = m. Vamos a resumir todos los resultados sobre soluciones de un sistema de ecuaciones. Podemos poner los diferentes casos en una tabla como sigue. Resumen 3.33. Sea A del tipo (n, m), con Ax = b sistema de ecuaciones. Se tiene que A matriz (n, m) Rg (A, b) 6= Rg (A) Rg (A, b) = Rg (A) = r r=m r<m Ax = b (inhomogeneo) no hay solución Ax = 0 (homogeneo) ◦ sólo la solución trivial x = 0 solución única sólo la solución trivial más de una solución soluciones no triviales 4. Transpuesta e Inversa de Matrices En esta sección vamos a definir dos matrices derivadas de una matriz cualquiera, la transpuesta y la inversa. Ambas son de mucha utilidad en problemás concretos y seran utilizadas más adelante, aquı́ daremos su definición y algúnas de sus propiedades más importantes. 50 3. MATRICES Definición 3.34. Sea A matriz AT tal que si a11 · · · a1m .. A= . an1 ··· anm matriz del tipo (n, m) . La transpuesta de A, es la a11 .. T se tiene que A = . a1m ··· an1 ··· anm y es del tipo (m, n) , es decir, se cambian renglones por columnas. Cuando calculamos el rango de una matriz, las operaciones que hacemos con los renglones las podemos igualmente hacer con la columnas de la matriz, por lo que si cambiamos renglones por columnas el rango no cambia. Por esta razón se sigue la siguiente proposición Proposición 3.35. Rg (A) = Rg AT Ejercicio 3.36. Probar la proposición anterior. La matriz tanspuesta tiene una serie de propiedades que la hacen muy interesante, las más iportantes las podemos resumir como sigue. Propiedades de la transpuesta de Matrices. T 1) AT =A T 2) (A · B) = B T · AT T 3) (A + B) = AT + B T T 4) Si x ∈ K, se cumple (x · A) = x · AT Comentario 3.37. Como veremos más adelante, las propiedades 1) y 2) se parecen a propiedades analogas a las de la inversa de una matriz. Pero la transpuesta siempre existe, la inversa no necesariamente. Ahora veamos las propiedades de la inversa de matrices. Definición 3.38. La inversa de una matriz A (n, n) es la matriz A tal que 1 0 .. A · A−1 = A−1 · A = . 0 1 Notación 3.39. De aquı́ en adelante usaremos a notación 1 0 .. I = . 0 1 Las propiedades más importantes de la inversa de una matriz se resumen en la siguiente proposición. Proposición 3.40. Sea A matriz del tipo (n, n) Las siguientes condiciones son equivalentes. 1) Existe la matriz A−1 de tipo (n, n) tal que A−1 · A = A · A−1 = I 2) Sea f el mapeo correpondiente a A, entonces f es sobre 3) ker A = {0} 4) Rg (A) = n 5) El mapeo f correspondiente a A es uno a uno. 4. TRANSPUESTA E INVERSA DE MATRICES 51 Demostración 3.41. Para demostrar esta proposición, vamos a demostrar del paso 1) al 5) y luego el 5) al 1). 1) ⇒2): Sea f ∈ L (V1 , V2 ) , tal que dim V1 = dim V2 = n. Sea y ∈ V2 , tal que y = Iy, con I la matriz identidad. Se sigue que y = A · A−1 y = A A−1 y . Entonces sı́ existe un x ∈ V1 tal que Ax = y pues x = A−1 y. 2) ⇒3): Esto se sigue del hecho que n = dim A (V1 ) + dim ker A, entonces dim ker A = 0. 3) ⇒4): Esto se sigue del hecho que Rg (A) = dim A (V1 ) = n 4) ⇒5): Rg(A) = n implica que no existen columnas o renglones de ceros, esto hace al mapeo correspondiente uno a uno. 5) ⇒1): f uno-uno implica que existe f −1 , por tanto A−1 es la matriz asociada −1 af . Ahora veremos un método para encontrar la inversa. De nuevo usamos las operaciones invariantes de la cerradura lineal. Supongamos que A−1 existe y apliquemos el método de Gauβ−Jordan a la matriz extendida (A, I), lo que debemos obtener al final es (I, A−1 ), es decir a11 .. . an1 .. . 1 ··· 0 pasos de .. .. ∼ . . Gauβ-Jordan . · · · ann .. 0 · · · 1 . A .. I .. −1 −1 1 0 . a · · · a 11 1n .. .. .. . . . .. −1 −1 0 1 . a · · · a nn n1 .. −1 I . A ··· a1n −1 donde estamos usando la notación a−1 ij = (aij ) . Definición 3.42. Una matriz A del tipo (n, n) se llama regular sı́ Rg(A) = n. Se llama singular si Rg(A) 6= n. Es decir, A regular implica que existe su inversa A−1 y además Rg (A) = n. Comentario 3.43. Si A es regular la solución de Ax = b es x = A−1 b y es única. Ejercicio 3.44. Seanlas matrices 1 −1 2 0 −1 2 M = 2 3 −1 N = 2 0 −1 S = 1 −1 0 1 −1 0 Usando el método de Gauβ-Jordan, encuentre la inversa de Ejercicio 3.45. Sean el vector 1 b = −1 2 1 −1 2 −2 1 −1 M, N y 2 2 0 S. 52 3. MATRICES Resuelva los sistemás M x = 0, N x = 0 y Sx = 0 asi como M x = b, N x = b y Sx = b usando el método de Gauβ-Jordan y usando la inversa de las matrices M y N . Diga cuantas soluciones tiene cada sistema. CHAPTER 4 DETERMINANTES 1. Definición Al igual que los grupos y los anillos, el conjunto de las matrices puede separarse en clases. Las matrices son objetos matemáticos de cierta complejidad, es por eso que es muy interesante analizar cantidades que sean invariantes en las diferentes clases de las matrices. Como veremos más adelante, los determinantes son cantidades invariantes en las clases y pertenecen al campo en donde se definieron las matrices. Estas cantidades se le pueden asociar a las matrices cuadradas. Como veremos en la siguiente sección, los determinantes también son muy útiles para calcular las soluciones de sistemás de ecuaciones lineales. Por ahora daremos su definición y algúnas de sus propiedades. Sea A matriz cuadrada sobre el campo K del tipo (n, n), asociada al mapeo lineal f ∈ L (V1 , V2 ) a11 · · · a1n .. A = ... . an1 ··· ann Definición 4.1. Se asocia a A de manera única, un número de K llamado el determinante de A, definido como a11 · · · a1n .. = X (sgnP ) a a · · · a , det A = ... nin 1i1 2i2 . P an1 ann donde la suma se lleva a cabo sobre todas las posibles permutaciones 1 2 ··· n P = i1 i2 · · · in de los números 1, 2, · · · , n. Observemos entonces que la suma que calcula el determinante de la matriz A, tiene n! términos. El sgnP es el signo de la permutación de P. ¿Y como se calculan los determinantes? El cálculo de los determinantes suele ser un proceso muy largo y tedioso, sobre todo para matrices de dimensión grande. Sin embargo existen algúnos métodos para calcular el determinante que suelen ayudar y reducir mucho el trabajo del cálculo. Para el caso de dimensiones bajas, n = 2, 3 se usa la regla de ”Sarras”. Aplicando la definición de determinante para una matriz (2, 2), se llega facilmente a la fórmula a b = ad − bc det c d 53 54 4. DETERMINANTES Para el caso de una matriz (3, 3) también existe una fórmula simple. De la definición de determinante se obtiene a det d g b e h c f i = aei + bf g + cdh − ceg − bdi − af h Para n > 3 el ploblema se complica mucho y es conveniente usar el teorema de Laplace, que consiste en lo siguiente. Para calcular el determinante de la matriz blk , donde los A = (A)j = aij que es (n, n), primero se calculan los determinantes C blk son los subdeterminantes (n − 1, n − 1) generados por medio de quitar la l-esima C linea y la k-esima columna del det A, tal que det A = Σni=1 aik Cik = Σni=1 aki Cki blk se llaman los para k ∈ {1, 2, · · · , n}, donde los determinantes Clk = (−1)l+k C cofactores de A, es decir a11 a12 · · · a1k−1 a1k+1 · · · a1n a21 a22 · · · a2k−1 a2k+1 · · · a2n .. .. . . i+k a a · · · · · · a Cik = (−1) i−1 2 i−1 n i−1 1 ai+1 1 ai+1 2 · · · · · · a 1+1 n . . .. .. an1 an2 ··· ··· ann El teorema de Laplace consiste en reducir det A en n subdeterminantes Cik de una dimensión menor y despues aplicar la fórmula de Laplace det A = Σni=1 aik Cik . Entonces se aplica sucesivamente este proceso hasta llegar a un determinante de 3 o 2 lineas, cuya fórmula es ya conocida. Por supuesto este proceso puede llegar a ser muy largo para determinantes de dimensión grande. Para calcular estos determinantes, a veces ayudan otros métodos. A continuación presentaremos uno de ellos que es muy útil para estos determinantes. Este método esta basado en algúnas propiedades de los determinantes. Para explicar estas propiedades, escribimos las lineas de det A como n -uplas o vectores {V1 , V2 , · · · , Vn }. Entonces det A se puede ver como una función del conjunto de estos vectores, al campo K, es decir D : {V1 , V2, · · · , Vn } ⇀ K , tal que D (V1 , · · · , Vn ) = det A, donde Vi es la linea i de A. Las propiedades del determinate en terminos de esta función son 1) D (V1 , · · · , Vi−1 , Vi , · · · Vn ) = −D (V1 , · · · , Vi , Vi−1 , · · · , Vn ), intercambiar dos lineas cambia el signo del determinante. 2) a) Sea m ∈ K, entonces mD (V1 , · · · , Vi , · · · , Vn ) = D(V1 , · · · , mVi , · · · , Vn ), el producto del determinate por una constante es igual al producto de una linea por la constante. b) D(V1 , · · · , Vk , · · · , Vn )+D(V1 , · · · , Vk1 , · · · , Vn ) = D(V1 , · · · , Vk +Vk1 , · · · , Vn ), la suma de dos determinantes con una k-esima linea diferente, es igual al determinante de la matriz con la suma de las k-esimás lineas. Estas dos propiedasdes hacen al determinante lineal en cada argumento, es decir, D es una función multilineal. 3) D(V1 , Vn ) = 0 sii {V1 , Vn } son linealmente dependientes. 4) det A = det AT 5) det (A · B) = (det A) (det B) = det (B · A) 1. DEFINICIÓN 55 El determinante es muy útil para saber si una matriz es regular. Esto se logra usando el siguiente lema. Lema 4.2. Sea A matriz del tipo (n, n). A es regular sı́ y sólo sı́ det A 6= 0 −1 Demostración 4.3. =⇒) A regular implica que existe A , entonces A · −1 −1 A = I, pero det = (det A) det A . Como det I = 1, se sigue que A·A (det A) det A−1 = 1, por lo que det A 6= 0. −1 Ejercicio 4.4. Demuestre la otra dirección ⇐=) del lema. Corolario 4.5. A regular implica que det A−1 = (detA) −1 Existe un método muy usado para calcular la inversa de una matriz, usando los cofactores. Para ver esto, primero definamos la matriz adjunta. Definición 4.6. La matriz adjunta se define como adj (A) = (adj (A))ij = Cij donde los Cij son los cofactores de la matriz A Recordemos que el determinante de A se calcula como det A = Σni=1 aik Cik . Vamos a introducir una proposición, sin demostración, que generaliza esta última expresión. Proposición 4.7. Se puede generalizar la expresión para detA como det Aδkj = Σni=1 aik Cij donde δkj es la delta de Kronecker definida por 1 si k = j δkj = 0 si k 6= j la cual también puede ser representada por la matriz identidad I, i.e. (I)kj = δkj Es por eso que en términos de la matriz adjunta, el determinante se escribe entonces como (det A) I = Σni=1 aik Cij = A (adj (A)). Esta última fórmula nos da un método para calcular la inversa, esto es −1 A−1 = (det A) (adj (A)) Finalmente, ya vimos que det A 6= 0 implica que A es regular y además que Rg (A) = n. Entonces implica que existe una única solución del sistema Ax = b. Existe también un método que usa determinantes para resolver este sistema. A este método se le conoce como Teorema de Cramer, el cual enunciaremos aquı́ sin demostración. Teorema 4.8. de Cramer. Sea ecuaciones lineales. a11 · · · .. A= . an1 A matriz de tipo (n, n) y Ax = b sistema de a1n .. . ann b1 b = ... bn si det A = |A| = 6 0 entonces la solución al sistema l1 x = ... ln 56 4. DETERMINANTES es unicamente determinada y tiene la forma a11 · · · a1j−1 b1 a1j+1 .. . an1 · · · anj−1 bn anj+1 lj = det A ··· a1n ann El numerador de la solución lj , es el determinante de la matriz Aj generada por substituir la j-esima columna de A por el vector b. Para entender mejor esta fórmula, vamos a ver algunos ejemplos. Ejemplo 4.9. Sea Ax = b 4 5 A = −2 2 1 1 6 1 1 2 b = −10 , 1 el determinante de A lo calculamos usando el teorema de Laplace 2 1 − (2) 5 6 + 1 5 6 = 4 (1) + (−1) + 1 (−7) = −5 det A = 4 1 1 1 1 2 1 Entonces la solución del sistema esta dado por 2 4 5 6 2 6 1 1 −10 2 1 −2 −10 1 l1 = − = 3, l2 = − 5 5 1 1 1 1 1 1 4 5 2 1 l3 = − −2 2 +10 = 0 5 1 1 1 = −2, Ejercicio 4.10. Resolver por el método de Gauβ-Jordan, por el método de la matriz inversa y por el método de Kramer, los siquientes sistemás de ecuaciones. 1) 3l1 + 2l2 − l3 = 1 l1 − l2 + 3l3 4l1 − 6l2 + l3 = = 9 2 2l1 + 3l2 − 4l3 = −8 3l1 + 2l2 − l3 = 1 = = 9 −8 2) l1 − l2 + 3l3 2l1 + 3l2 − 4l3 3) 3l1 + 2l2 − l3 l1 − l2 + 3l3 2l1 + 3l2 − 4l3 = 0 = 0 = 0 2. MATRICES SIMILARES 57 4) 5) 3l1 + 2l2 − l3 l1 − l2 + 3l3 = = 0 0 4l1 − 6l2 + l3 = 0 3l1 + 2l2 − l3 l1 − l2 + 3l3 = = 1 −2 4l1 − 6l2 + l3 2l1 + 3l2 − 4l3 = = 2 −8 2. Matrices Similares El conjunto de matrices se puede separar en clases de equivalencia. Esta separación es muy conveniente ya que en muchas ocaciones va a ser suficiente trabajar con algún elemento de la clase y no con una matriz en general. A la relación que separa a las matrices en clases, se le llama similaridad y es de lo que nos ocuparemos en esta sección. Definición 4.11. Dos matrices A, B del tipo (n, n, ) se llama similares sı́ existe una matriz regular U del tipo (n, n) tal que A = U BU −1 . Notación 4.12. A la transformación B ⇀ U BU −1 se le llama transformación de similaridad. La transformación de similaridad es una relación de equivalencia y es justo este hecho lo que da a esta transformaciń su importancia. Esta afirmación la pondremos en la siguiente proposición. Proposición 4.13. La similaridad en el conjunto de todas las matrices (n, n) es una relación de equivalencia. Demostración 1) reflexiva: 2) simétrica: 3) transitiva: existe W = U S tal U SC (U S)−1 . 4.14. Veamos que la relación es A es similar a A pues U = I es regular. A = U BU −1 implica que B = U −1 AU A = U BU −1 y B = SCS −1 con U y S regulares, entonces que A = U BU −1 = U SCS −1 U −1 = (U S) CS −1 U −1 = Ahora vamos a ver algunas de las propiedades más interesantes de matrices similares. Para esto, supongamos que tenemos una matriz que es la suma de muchas matrices. Para transformar esta matriz a su similar, es suficiente en conocer la similaridad de cada sumando y luego sumarlas todas. Esta propiedad la podemos enunciar como un lema. Lema 4.15. Para transformar una suma de matrices en su similar, se suman las similares de cada matriz. Demostración 4.16. Se tiene U (A1 + · · · + An ) U −1 = U A1 U −1 + · · · + U An U −1 . De la misma forma, podemos transformar potencias de matrices 58 4. DETERMINANTES Lema 4.17. El similar de la potencia de una matriz es la potencia del similar. Demostración 4.18. Se tiene U An U −1 = U AU −1 U AU −1 · · · U AU −1 = U AU −1 Por lo tanto, se tiene la siguiente proposición, Lema 4.19. La matriz similar de una matriz polinomial es el polinomio de la matriz similar . Demostración 4.20. Por los lemás anteriores se tiene que U pn (A)U −1 = pn (U AU −1 ) para todo polinomio pn de grado n. El siguinte paso es determinar representantes convenientes de cada clase de equivalencia. 3. Invariantes de Matrices Similares (Vectores y Valores Propios) El problema que nos enfrentamos ahora es el de saber si una matriz está en algúna clase de equivalencia del conjunto de matrices conocidas. Las clases de equivalencia poseen algúnos inveriantes, números o vectores que caracterizan la clase o son un criterio para saber si algúna matriz esta en algúna clase determinada. En esta sección veremos algúnos invariates, sus propiedades y lo métodos más comunes para calcularlos. La primera propiedad esta dada por la siguiente proposición Proposición 4.21. Matrices similares realizan la misma transformación lineal, usando diferentes bases del espacio vectorial. Demostración 4.22. Veamos primero una idea de la demostración. Sea la transformación lineal f ∈ L (V, V ), esta transformación tendra asociada una matriz A en la base {xi }i=1,··· Pn ,n . En otra base {yi }i=1,··· ,n , relacionada con la base {xi }i=1,··· ,n por yi = j=1 uij xj , que se puede representar matricialmente por y = U x, la transformación lineal tendrá otra matriz de representación B. Entonces, V podrá P escribirse Pnun vector vP∈ Pn en cualquiera de las dos bases como n n v = r x = s y = i=1 i i j=1 j j j=1 k=1 sj ujk xk , por lo que encontramos la relación matricial r = U s. Se debe cumplir que Av = Bv, o sea Arx = Bsy, es decir, AU sx = BsU x, de donde se sigue que U −1 AU = B. Ejercicio 4.23. Mostrar los detalles de la proposición anterior. Entonces tenemos el siguiente problema ¿Como reconocer matrices similares? ¿Que propiedades se mantienen iguales cuando transformamos una matriz en otra por medio de una transformación de similaridad? La siguiente proposición nos dará una idea para resolver estas preguntas. Proposición 4.24. Sean A y B matrices similares. Entonces a) Rg (A) = Rg (B) b) det A = det B Demostración 4.25. Sean y A = U BU −1 , con U regular. A, B del tipo (n, n) −1 −1 b) det A = det ABU = det U det B det U = det B Ejercicio 4.26. Demostrar a) de la proposición anterior. n . 3. INVARIANTES DE MATRICES SIMILARES (VECTORES Y VALORES PROPIOS) 59 Ahora ya tenemos un primer criterio para saber cuando dos matrices pertenecen a la misma clase, con esta proposición, al menos sabemos que si det A 6= det B o Rg (A) 6= Rg (B) entonces A y B no son similares. Vamos a introcir otro criterio para saber si dos matrices no son similares. Para esto iniciamos con la siguiente definición. Definición 4.27. Sea A la matriz que representa al automorfismo f ∈ L (V, V ) con dim V = n. A cada x ∈ V , con x 6= 0V , que cumple Ax = λx para algún λ ∈ K, se le llama vector propio (eigen vector) de A y λ se le llama valor propio (eigen valor) asociado a x. El sistema Ax = λx puede ser escrito de la manera más conveniente como (A − λI) x = O (4.1) donde I es la matriz identidad y O es la matriz con ceros en todas las entradas. (4.1) es un sistema homogeneo de ecuaciones lineales que en principio podemos resolver con caulquiera de los métodos que ya hemos expuesto. Observemos que el sistema (4.1) tiene soluciones no triviales, diferentes de cero, si Rg (A − λI) < n, pero esto sucede si det (A − λI) = 0K . Este hecho da pie a la siguiente definición. Definición 4.28. A la matriz A − λI se le llama la matriz caracteristica de A. Al polinomio det (A − λI) se le llama polinomio carateriztico de la ecuación (4.1). det (A − λI) = 0 se le llama la ecuación caracteristica de A. Una de las propiedades más importantes de los polinomios caracteristicos es la siguiente Teorema 4.29 (Cayley-Hamilton). Toda matriz es raiz de su polinomio caracteristico. Demostración 4.30. Sea A matriz y P = A − λI. Sea B la matriz adjunta de P , por lo que det(P )I = P (adj(P )), es decir | A − λI | I = (A − λI) B. Como B es una matriz polinomial de grado n − 1 y det(P ) es un polinomio de grado n, se tiene que la ecuación anterior se puede reescribir como (a0 + a1 λ + · · · + an λn ) I = (A − λI) B0 + B1 λ + · · · + Bn−1 λn−1 donde det(P ) = a0 +a1 λ+· · ·+an λn es el polinomio caracteristico y las matrices Bi , con i = 1, · · · , n − 1 son las matrices que forman la matiz polinomial B. Igualemos coeficientes de igual grado en λ de ambos lados de la ecuación anterior, de donde se obtiene a0 I = AB0 ; a1 I a2 I = AB1 − B0 ; = AB2 − B1 ; .. . = ABn−1 − Bn−2 ; an−1 I an I = −Bn−1 . 60 4. DETERMINANTES Ahora multipliquemos la segunda igualdad de la lista anterior por A, la tercera igualdad por A2 , y asi susesivamente hasta que la última la multiplicamos por An y sumemos todo de ambos lados. El resultado es a0 I + a1 A + · · · + an An = 0 En lo que sigue, daremos un método para calcular los valores propios y los vectores propios de una matriz A. Paso 1. Usando la ecuación caracteristica, se calculan los valores caracterisiticos λ1 , · · · , λn como raices del polinomio caracteristico. Paso 2. Para cada autovalor encontrado, se soluciona la ecuación a11 − λ a12 ··· ain l1 a21 a22 − λ · · · ann l2 (A − λI) x = .. = 0. .. . . an1 an2 · · · ann − λ ln El método es simple, para verlo con más claridad vamos a ver un ejemplo. 3 1 2 Ejemplo 4.31. Sea V = R y K = R, y sea A la matriz A = . 2 4 Entonces el polinomio caracteristico de A es det (A − λI) = (3 − λ) (4 − λ) − 2 = 12 − 3λ − 4λ + λ2 − 2 = λ2 − 7λ + 10 = 0 q 40 7 3 Las raices del polinomio caracteristico son, λ1,2 = 27 ± 49 4 − 4 = 2 ± 2 , es decir λ1 = 2 y λ2 = 5. Entonces los valores propios son 2 y 5. Los vectores propios asociados a λ1 se encuentran resolviendo 3−2 1 l1 0 (A − λ1 I) x = 0 = = 2 4−2 0 l2 La solución de esta ecuación matricial se reduce a la solución del sistema l1 + l2 = 0 2l1 + 2l2 = 0 que conduce a la solución l1 = −l2 . Esto es, los vectores propios asociados a este r valor propio son de la forma con r ∈ R. Los vectores propios asociados a −r λ2 se encuentran resolviendo la ecuación 3−5 1 0 l1 (A − λ2 I) x = 0 = = 2 4−5 0 l2 la ecuación matricial se reduce a −2l1 + l2 2l1 − l2 = 0 = 0 cuya solución esta dada por l2 = 2l1 , entonces los vectores propios están dados por s , con s ∈ R. 2s 3. INVARIANTES DE MATRICES SIMILARES (VECTORES Y VALORES PROPIOS) 61 Observemos la siguiente importante propiedad. Sean A y B matrices similares, i..e. A = U BU −1 . Entonces se sigue que det (A − λI) = det U −1 BU − λI = det U −1 BU − λU −1 IU = det U −1 (B − λI) U = det U −1 det (B − λI) det U = det (B − λI) o sea det (A − λI) = det (B − λI). Esta es una propiedad muy importante de las matrices similares, es decir: Proposición 4.32. Matrices similares tiene el mismo polinomio caracteristico y por lo tanto los mismos valores y vectores propios. Con este último resultado ya tenemos tres criterios para decidir si dos matrices no son similares. Si su rango o su determinante o sus valores o vectores propios no son los mismos, de entrada las matrices no son similares. Para que dos matrices sean similares, deben tener al menos el mismo rango, el mismo determinante y los mismo valores propios. Vamos a introducir una definición muy importante que consiste en la suma de los elementos de la diagonal de una matriz, a esta suma se le llama la traza. Formalmente se define como sigue. Definición 4.33. La traza de A esta definida por Tr A = Σni=1 aii es decir, es la suma de los elementos de la diagonal de A Comentario 4.34. Otras propiedades de los valores y vectores propios, son las siguientes. 1) Si λ1 , λ2 , · · · , λn son los valores propios de la matriz A, se tiene que det A Tr A = Πni=1 λi , y = Σni=1 λi 2) Como consecuencia de 1) se sigue Si det A = 0, esto es sı́ y sólo sı́ existe algún valor propio de A que es cero, λj = 0. A regular, sı́ y sólo sı́ ningun valor propio de A tiene el valor 0, es decir, sı́ y sólo sı́ 0 no es valor propio de A. 3) Si λ1 , λ2 , · · · , λn son los valores propios de A y son todos distintos, implica que el conjunto de vectores propios {x1 , · · · , xn } donde xi es el vector propio asociado a λi , es linealmente independiente en V. 4) Si K = R y V = Rn , los valores propios son en general complejos. Pero si A = AT los valores propios son reales. 5) Si A ∈ O (n) = A | A es (n, n) y AT = A−1 , entonces todos los valores propios tienen el valor 1. Ejercicio 4.35. Demostrar las propiedades 1) a 5) Estas propiedades de los valores y vectores propios vuelven a estos de suma importancia en el estudio de matrices y en general en el álgebra lineal. CHAPTER 5 FORMAS CANONICAS 1. Introducción Ya hemos separado al conjunto de matrices en clases de equivalencia. Ahora buscaremos representantes diversos que sean simples en estas clases de equivalencia. Ya sabemos que estos representantes puede ser cualquier miembro de la clase. Sin embargo, los representantes más simples para trabajar serán siempre los que contengan un mayor número de ceros en sus componentes. Estos representantes simples son generalmente diagonales o cuasidiagonales. Para obtener estos representantes hay que tomar varias cosas en cuenta. Ya sabemos que invariantes de matrices similares son, entre otros, el rango, el determinante y los valores propios. Sin embargo, estos invariantes sirven para saber cuando dos matrices no son similares. Por ejemplo, si Rg(A) 6= Rg(B), esto implica que A y B no son similares. Sin embargo, si Rg(A) = Rg(B), esto no implica que A y B son similares. Para ver si dos matrices están en la misma clase de equivalencia con la relación de similaridad, se encuentra un representante simple de la clase y se compara éste con las matrices que deben ser similares. Si cada una es similar al representante, las matrices son similares. En otras palabras, sean por ejemplo A y B, ¿son A ∼ B similares? Si [C] es un representante de una clase tal que A ∼ [C], se ve si B ∼ [C]. A estos representantes simples se les llama formás canónicas. Para introducir las formás canónicas, vamos primero a dar algúnas definiciones útiles. Definición 5.1. Las matrices pueden ser · Una matriz diagonal, si solo tiene términos de cero en los elementos diagonales esto es C= c11 0 .. . 0 c22 0 0 0 0 ··· .. . ··· cnn · Una matriz es triagonal, si es de la forma C= c11 0 .. . 0 c12 c22 ··· .. . c1n c2n .. . cnn , ó C = 63 c12 c21 .. . 0 c22 cn1 cn2 ··· 0 .. . ··· cnn 64 5. FORMAS CANONICAS · Una matriz es cuasidiagonal, si es hecha de bloques no diagonales en la diagonal, de la forma [ ] 0 .. ⌈ ⌉ . C = . .. ⌊ ⌋ 0 [ ] Si la matriz es polinomial, como es el caso de la matriz caracteristica, es muy conveniente hacer la siguiente definición. Definición 5.2. Una matriz polinomial U (λ) se llama forma canónica diagonal, si todo elemento diagonal pi (λ) divide al elemento siguiente pi+1 (λ) y si el elemento principal de todos los polinomios p1 (λ), · · · , pn (λ) diferente de cero es 1, es decir, una matriz en su forma canónica diagonal tiene la estructura 1 0 ··· .. . 0 0 1 p (λ) 1 .. . . .. .. C= . pn (λ) 0 0 0 .. . ··· 0 0 donde pi (λ) con i = 1, · · · , n son polinomios, tales que p2 /p1 , · · · , pn /pn−1 son polinomios. A los polinomios pi (λ) se les llama los factores invariantes de la matriz. Siempre es posible llevar a una matriz polinomial a su forma canónica diagonal, usando transformaciones elementales. Para ver esto veamos un ejemplo: Ejemplo 5.3. Sea la matriz polinomial 3 x − 2x + 1 3x4 + 2x x2 2x2 − x 0 1 3x2 + 1 −2x3 x El primer paso para llevar esta matriz a su forma canónica diagonal, es poner el polinomio de la matriz de menor grado diferente de cero, en la esquina superior izquierda. En este caso el polinomio de menor grado es el 1. Entonces, cambiando la tercera columna por la primera y luego el segundo renglón por el primero, se obtiene 1 0 2x2 − x x2 3x4 + 2x x3 − 2x + 1 x −2x3 3x2 + 1 Ahora multiplicamos el primer renglón por x2 y lo restamos con el segundo, lo ponemos como segundo renglón. Análogamente, multiplicamos el primer renglón 1. INTRODUCCIÓN por x y lo restamos con el 1 0 0 65 tercero, colocandolo en el tercer renglón. Se obtiene: 0 2x2 − x 3x4 + 2x −2x4 + 2x3 − 2x + 1 −2x3 −2x3 + 4x2 + 1 Entonces multiplicamos la primera columna por 2x2 − x y la restamos de la tercera columna, la ponemos en vez de la tercera columna, para obtener 1 0 0 0 3x4 + 2x −2x4 + 2x3 − 2x + 1 0 −2x3 −2x3 + 4x2 + 1 El resultado es que tenemos una matriz cuasidiagonal. Volvemos a empezar el proceso, pero ahora con la matriz 2 × 2 de la diagonal inferior. Pongamos de nuevo el polinomio de menor grado (y más simple) en la esquina superior izquierda. Esto se logra cambiando el segundo por el tercer renglón. Se obtiene 1 0 0 0 −2x3 −2x3 + 4x2 + 1 4 0 3x + 2x −2x4 + 2x3 − 2x + 1 Lo que sigue es análogo al proceso anterior, hay que diagonalizar este bloque. Vamos a multiplicar el segundo renglón por 3x4 + 2x y restarlo con el tercer renglón multiplicado por −2x3 . Se obtiene 1 0 0 0 −2x3 −2x3 + 4x2 + 1 4 3 3 3 2 4 0 0 −2x + 2x − 2x + 1 −2x − −2x + 4x + 1 3x + 2x Finalmente, multiplicamos la tercera columna por −2x3 y se la restamos a la segunda columna multiplicada por −2x3 + 4x2 + 1 y la ponemos en vez de la tercera columna, obtenemos: 1 0 0 0 1 0 7 6 4 3 0 0 10x − 16x + 5x − 10x − 2x donde hemos dividido el segundo renglón entre −2x3 , para obtener en la diagonal un polinomio que divida al ultimo de la diagonal. Observemos que el determinante de la matriz original es justamente ± 10x7 − 16x6 + 5x4 − 10x3 − 2x , como era de esperarse. Cuando representamos una transformación lineal con su matriz, generalmente utilizamos elementos arbitrarios del dominio de la función. Como vamos a ver adelante, los valores y vectores propios son muy convenientes para representar la transformación linea, porque la matriz que le corresponde en esta representación es diagonal. Vamos a ver esto en la siguiente proposición. Proposición 5.4. Sea V espacio vectorial de dimensión finita n y f ∈ L (V, V ). f es representable por una matriz diagonal, sii existe una base {x1 , · · · , xn } de V y números del campo λ1 , λ2 , · · · , λn ∈ K tales que f (xi ) = λi xi . Entonces los números λ1 , · · · , λn son los elementos de la diagonal de esta matriz. 66 5. FORMAS CANONICAS Demostración 5.5. Sea A la matriz que representa a f . Como f (x1 ) = λ1 x1 , · · · , f (xn ) = λn xn , esto es sii se tiene que λ1 0 .. A= . 0 λn Esta proposición es muy importante porque reduce el problema de encotrar una representación simple de la clase a encontrar la base en la cual esta representación es diagonal. Es más, los valores propios de la transformación lineal son raices del polinomio caracteristico de la matriz de representación, esto es: Teorema 5.6. Sean V espacio vectorial, f ∈ L (V, V ), A la matriz representación de f y k ∈ K. Entonces k es un valor propio de f sii k es una raiz del polinomio caracteristico de A. Demostración 5.7. Sea k valor propio de f , del vector propio x. Entonces Ax = kx, esto es sii (A − kI) x = 0. Pero este sistema de ecuaciones lineales solo tiene solución no trivial sii det (A − kI) = 0. Esto es, si queremos encontrar la base en la cual una transformación lineal tiene una representación diagonal, basta con encontrar sus valores y vectores propios. Si estos vectores propios son l.i., esta base es la apropiada. Si los vectores propios no son l.i., entonces debemos buscar algúna representación similar adecuada. Vamos a ver esto. Para poder ver si dos matrices son similares, se utiliza la definición de matrices equivalentes, esta es: Definición 5.8. Dos matrices polinomiales A (λ) y B (λ) son equivalentes, si existen U y V de determinantes no nulos que no dependen de λ, tal que A (λ) = U B (λ) V La relación entre matrices similares y matrices equivalentes es que dos matrices son similares si sus matrices caracteristicas son equivalentes, esto lo vemos en el siguiente teorema. Teorema 5.9. Sean A y B definidas en un cuerpo conmutativo K. A y B son similares sı́ y sólo sı́ A − λI y B − λI son equivalentes. Demostración 5.10. =⇒) Si A = U BU −1 entonces A−λI = U (B − λI) U −1 ⇐=) Sean A − λI y B − λI equivalentes, entonces A − Iλ = S (B − Iλ) R, para S y R matrices que no dependen de λ. Como B tampoco depende de λ, igualando coeficientes del mismo orden, se tiene I = SR y A = SBR, ambas identidades implican que A = SBS −1 . Un método para determinar la semejanza de las matrices A y B es el siguiente. Se forma la matriz caracteristica de cada una de las matrices A − Iλ y B − Iλ y se reducen a su forma canónica diagonal con pasos elementales. Si despues de reducir ambas matrices caracteristicas a su forma más elemental, las dos formás coinciden, entonces A y B son similares. Veamos un ejemplo. 1. INTRODUCCIÓN 67 Ejemplo 5.11. Sean (5.1) A = (5.2) B = 5 3 −3 −1 −3 −3 −1 −3 6 8 6 6 3 −3 y −1 3 −6 −4 mostremos que estas dos matrices son similares. Primero notemos que sus determinantes son iguales, i.e., det A = det B = −4. Si esto no fuera asi, A y B no pueden ser similares. También notemos que A y B tienen la misma traza trA = trB = 3. Entonces si pueden ser similares. El determinante y la traza nos dan una guia para ver si las dos matrices son similares, pero no es suficiente. Las dos matrices pueden tener incluso el mismo polinomio caracteristico, pero aun asi no ser similares. Vamos a ver si A − λI y B − λI son equivalentes. Se tiene A − λI = ∼ ∼ ∼ ∼ 5−λ 3 3 −3 −1 − λ −3 −3 −3 −1 − λ −3 −3 −1 − λ −3 −1 − λ −3 5−λ 3 3 1 0 0 0 2−λ −2 + λ 0 3 − (5 − λ) 3 − 1/3 (1 + λ) (5 − λ) 1 0 0 0 2−λ 0 0 0 3 − 1/3 (1 + λ) (5 − λ) + λ − 2 1 0 0 0 2−λ 0 0 0 − (1 + λ) (2 − λ) 68 5. FORMAS CANONICAS y B − λI = ∼ ∼ ∼ ∼ −1 − λ −3 3 6 8 − λ −6 6 6 −4 − λ 6 6 −4 − λ 6 8 − λ −6 −1 − λ −3 3 1 0 0 0 2−λ −2 + λ 0 −3 + 1 + λ 3 − 1/6 (4 + λ) (1 + λ) 1 0 0 0 2−λ 0 0 0 3 − 1/6 (4 + λ) (1 + λ) − 2 + λ 1 0 0 0 2−λ 0 0 0 − (−2 + λ) (1 + λ) es decir, ambas tienen la misma reducción usando operaciones elementales, por lo que las dos matrices son similares. Observen cómo el elemento central de la diagonal divide al último. Esto es muy interesante, en este caso se puede demostrar que A y B son ceros (raices) del polinomio (1 + λ) (2 − λ). Por el teorema de Cayley-Hamilton sabemos que A y B 2 son ceros de su polinomio caracteristico (1 + λ) (2 − λ) , pero en este caso hay un polinomio de grado menor (1 + λ) (2 − λ) con esa cararteristica. Esto da pie a la siguiente definición. Definición 5.12. Sea A matriz y m(x) polinomio. m se llama polinomio mı́nimo de A, si m es el polinomio con menor grado que existe, tal que m(A) = 0. Existe una relación muy interesante entre los polinomios caracteristico y mı́nimo, ya que éste último divide al primero. Esta afirmación la podemos ver en la siguiente proposición. Proposición 5.13. El polinomio minimo de una matriz divide siempre a su polinomio caracteristico. Demostración 5.14. Sea P (x) el polinomio caracteristico de la matriz A y m es su polinomio mı́nimo, se debe tener que P (x) = p1 (x)m(x) + p2 (x), donde p1 (x) y p2 (x) son polinomios. Esto implica que P (A) = p1 (A)m(A) + p2 (A) = 0, pero como m(A) = 0, se sigue que p2 (A) = 0. Es claro entonces que si el polinomio caracteristico es de la forma P (x) = (x − λ1 )n1 (x − λ2 )n2 · · · (x − λs )ns , el polinomio minimo tiene que ser de la forma m(x) = (x − λ1 )m1 (x − λ2 )m2 · · · (x − λs )ms , con mi ≤ ni para todo i = 1, · · · , s. La pregunta que sigue es, ¿si dos matrices son similares, como encuentro la matriz que las relaciona? Ya vimos que las matrices A y B de los ejercicios 5.11 anteriores son similares, estas deben estar relacionadas entre si, tal que debe de existir algúna matriz no sigular U que cumpla A = U BU −1 . Esta pregunta es la 2. FORMA CANÓNICA DE JORDAN 69 que nos va a ocupar en la sección siguiente, pero por ahora encontremos la matriz de relación de forma directa en un ejercicio. Ejercicio 5.15. Encontrar los valores propios y los vectores propios de las matrices A y B ((5.1) y (5.2)) del ejemplo 5.11. Ver si sus vectores propios son l.i. En caso que si, construir la matriz diagonal de la clase correspondiente. Encontrar las matrices U que relacionan a A y B con la matriz diagonal. Encontrar entonces la matriz U que relaciona a A y B. Ejercicio 5.16. Mostrar que si λ es valor propio de f y f es invertible, entonces λ−1 es valor propio de f −1 . Ejercicio 5.17. Mostrar que una matriz y su transpuesta tienen el mismo polinomio caracteristico. Ejercicio 5.18. Sea A matriz cuadrada 2 × 2. Mostrar que el polinomio caracteristico de A esta dado por x2 − (trA) x + det A Pn=2 donde trA = i=1 (A)ii es la traza de A. (Ayuda: Mostrar primero que para todo polinomio ax2 +bx+c con raices x1 , x2 , se tiene que x1 +x2 = −b/a y x1 x2 = c/a.) Ejercicio 5.19. Sea A matriz cuadrada 3 × 3. Mostrar que el polinomio caracteristico de A esta dado por i 1h 2 (trA) − trA2 x − det A x3 − (trA) x2 + 2 Ejercicio 5.20. Sea A matriz cuadrada 4 × 4. Mostrar que el polinomio caracteristico de A esta dado por i i 1h 1h 2 3 x4 −(trA) x3 + (trA) − trA2 x2 − (trA) − 3 trA2 (trA) + 2 trA3 x−det A 2 6 2. Forma Canónica de Jordan Veremos solo dos de las formás canónicas más utilizadas en la literatura, la forma canónica de Jordan y la forma canónica natural. La primera es muy conveniente porque es cuasidiagonal, pero tiene el problema de que el campo de las matrices deben ser el de los complejos o algún campo cerrado, entonces el representante de la clase no siempre pertenece al campo donde están las matrices. Esto implica que esta forma canónica es conveniente solo para matrices sobre campos cerrados. En cambio la forma canónica natural siempre conserva el campo donde se trabaja, aunque tiene el inconveniente de que no es cuasidiagonal. Veamos primero la forma canónica de Jordan. Definición 5.21. Una célula l 1 0 l J = ... 0 ··· 0 ··· de Jordan es una matriz n × n de la forma 0 ··· 0 1 ··· 0 .. = lI + N .. n . . l 1 0 l 70 5. FORMAS CANONICAS donde 0 0 .. . Nn = 0 0 1 0 ··· ··· 0 1 .. . ··· ··· 0 0 0 0 .. . 1 0 Las matrices Nn son matrices n × n y tienen la asombrosa propiedad de ser nilpotentes de grado n, es decir, (Nn )n = 0. Esta propiedad es crucial para definir la forma canónica de Jordan. Pero primero observemos la siguiente proposición. Proposición 5.22. El polinomio cararteristico de las células de Jordan n × n n son de la forma (l − x) . Demostración 5.23. Se puede ver por cálculo directo que det(J − xI) = n (l − x) . Antes de ver el teorema de Jordan, vamos a observar una propiedad muy interesante de las matrices. Lema 5.24. El determinante de una matriz cuasidiagonal A es igual al producto de los determinantes de las matrices de su diagonal. Demostración 5.25. Sea A= A1 0 0 .. . A2 0 ··· entonces A se puede escribir como A1 0 · · · 0 I .. 0 I . 0 A= . . . .. .. .. 0 ··· I 0 ··· .. 0 ··· A2 .. ··· . . 0 .. . As 0 .. . ··· I I 0 0 .. . I 0 ··· ··· .. . 0 .. . As donde las matrices I son matrices identidad de dimensión conveniente. Se sigue que det A = det A1 det A2 · · · det As Con esta propiedad ya podemos definir la forma canónica de Jordan a través del siguiente Teorema 5.26. Sea A matriz cuadrada de orden n sobre el cuerpo de los números complejos, (o sobre un cuerpo algebraicamente cerrado) con polinomio caracteristico P (x) = (x − λ1 )n1 · · · (x − λs )ns , con n = n1 + · · · + ns , y polinomio minimo m(x) = (x − λ1 )m1 · · · (x − λs )ms . Entonces A es similar a una matriz de Jordan, de la forma. J11 0 ··· 0 .. 0 J12 . J = . . .. .. 0 ··· Jsk 2. FORMA CANÓNICA DE JORDAN 71 donde cada λi , con i = 1, · · · , s es representada por las células de Jordan Jik con k = 1, · · · , ti tal que 1.- Existe al menos una célula de Jordan de orden mi y las demás tendrán ordenes menores o iguales que mi . 2.- La suma de los ordenes de las células Jik es ni . 3.- El número de células de Jordan Jik , es únicamente determinado para cada matriz A. Demostración 5.27. Vamos a ver sólo una idea de la demostración. Construyamos la representación de Jordan de A. Como el polinomio mı́nimo de A es m, se tiene que m(A) = (A− λ1 I)m1 · · · (A− λs I)ms = 0. Podemos definir matrices Ai con i = 1, · · · , s tales que (A1 − λ1 I)m1 = 0, · · · , (As − λs I)ms = 0 y escribir A1 0 · · · 0 .. 0 A2 . − xI = (x − λ1 )m1 · · · (x − λs )ms det . .. .. . 0 ··· As Definamos las matrices Ni = Ai − λi I. Claramente las matrices Ni son nilpom tentes tales que (Ni ) i = 0. Una representación de estas matrices esta dada por las matrices nilpotentes 0 1 0 ··· 0 0 0 1 ··· 0 .. .. . .. Ni = . . 0 ··· 0 1 0 ··· 0 0 Entonces podemos representar a la matriz A por una matriz de Jordan. La representación quedará determinada al reducir la matriz de Jordan y la matriz A a su forma equivalente. Además se sigue que: 1.- El orden de Ai es mi , al menos una vez. 2.- La suma de los ordenes de las células Jik es ni , debido a que J y A tienen el mismo polinomio caracteristico. 3.- El número de células de Jordan Jik , es únicamente determinado para cada matriz A ya que A y J son similares. Ejemplo 5.28. Tomemos de nuevo la matriz A (5.1) del ejemplo 5.11 5 3 3 A = −3 −1 −3 −3 −3 −1 2 ya sabemos que su polinomio caracteristico esta dado por (1 + λ) (2 − λ) y su polinomio mı́nimo por (1 + λ) (2 − λ). Entonces, siguiendo la regla del teorema, se tiene que, según el polinomio caracteristico, el valor propio 1 aparece una vez en la diagonal y el valor propio 2 aparece dos veces. Además, segun el polinomio mı́nimo, los dos valores propios tiene una célula de Jordan de grado 1. Ası́, su forma de Jordan será 2 0 0 (5.3) J = 0 2 0 0 0 −1 72 5. FORMAS CANONICAS Ejemplo 5.29. Sea ahora A la matriz 6 3 (5.4) A = −3 −1 −4 −3 4 −3 −2 El determinante de esta matriz es −4 y su traza es 3. Su polinomio caracteristico es de nuevo (1 + λ) (2 − λ)2 y ahora el polinomio mı́nimo es también (1 + λ) (2 − λ)2 , como puede verse de tomar 3 0 3 (I + A) (2I − A) = 0 0 0 6= 0. −3 0 −3 Entonces la matriz de Jordan correspondiente tendrá al menos una célula de Jordan de grado 2 del valor propio 2, esto es: 2 1 0 (5.5) J = 0 2 0 0 0 −1 Hay una forma alternativa de encontrar la forma canónica de Jordan de una matriz. Observemos lo siguiente. En una matriz diagonal, digamos 3 × 3, con sus tres valores propios iguales, la forma canónica diagonal de su matriz caracteristica serı́a x−λ 0 0 x−λ 0 0 0 0 x−λ ya que el polinomio superior de la diagonal divide al siguiente. Si solo dos valores propios fueran iguales, su matriz canónica diagonal serı́a 1 0 0 x − λ1 0 0 0 0 (x − λ1 ) (x − λ2 ) y si los tres valores propios son diferentes serı́a 1 0 0 1 0 0 0 0 (x − λ1 ) (x − λ2 ) (x − λ3 ) Entonces, podemos también constriur la forma canónica de Jordan, calculando la forma canónica diagonal de la matriz y formando una célula de Jordan para cada factor invariante del grado del factor invariante correspondiente. Esto se puede entender mejor con un ejemplo. Ejemplo 5.30. Como ya vimos, la forma acteristica de la matriz (5.1) 5 3 A = −3 −1 −3 −3 canónica diagonal de la matriz car 3 −3 −1 3. FORMA CANÓNICA NATURAL 73 es la matriz 1 0 0 0 0 2−λ 0 0 − (1 + λ) (2 − λ) Por lo que, su forma canónica de Jordan tendrá una célula de Jordan de orden uno para el factor invariante 2 − λ y otra célula diagonal para el factor invariante (1 + λ) (2 − λ) (ver (5.3)). Ejercicio 5.31. Encontrar la forma canónica de Jordan de las matrices 1 1 2 1 5 0 0 2 1 1 0 2 −2 2 − 52 −3 32 1 1 0 −2 1 −1 1 −1 3 − 23 −1 −3 0 3 2 Ejercicio 5.32. Sea A una matriz con polinomio caracteristico (x − 2) (x − 1) y polinomio minimo (x − 2)2 (x − 1) . ¿Cual es su forma canónica de Jordan? Ejercicio 5.33. Encontrar todas las formás canónicas de Jordan posibles de 3 2 una matriz que tiene polinomio caracteristico (x − 2) (x − 1) . 3. Forma Canónica Natural La forma canónica natural tiene la ventaja sobre la forma canónica de Jordan, de ser un representante para las clases de matrices en cualquier campo. A diferencia de la forma canónica de Jordan, donde el campo tiene que ser algebraicamente cerrado, como los complejos, la forma canónica natural es adecuada para cualquier campo. Tiene la desventaja de nos ser diagonal. Hay una enorme semejanza entre las dos formás canónicas, asi que empecemos por definir las células de la forma canónica natural. Definición 5.34. Sea P (x) polinomio de cipal sea 1, i.e. P (x) = a0 + a1 x + · · · + an−1 xn−1 + xn La matriz 0 1 0 0 0 1 .. . . .. .. N = . 0 0 0 −a0 −a1 −a2 grado n, tal que su coeficiente prin- ··· ··· .. . 0 0 .. . ··· ··· 1 −an−1 se llama la matriz asociada al polinomio P (x). Vamos a calcular el polinomio caracteristico de N . Se obtiene 74 5. FORMAS CANONICAS det (N − Ix) = = −x 0 .. . 1 −x .. . det 0 0 −a0 −a1 1 0 −x 1 a0 det . .. .. . 0 1 .. . ··· ··· .. . 0 −a2 ··· ··· ··· ··· .. . 0 ··· −x 0 (−an−1 − x) det . .. 0 0 0 .. . 1 0 = 0 0 .. . 1 −an−1 − x −x 0 − a1 det .. . 1 −x .. . ··· ··· .. . 0 0 .. . 0 ··· −x 0 0 ··· 1 ··· .. . . . . 0 ··· 0 0 .. . 1 + ···− a0 + a1 x + · · · + (an−1 + x) xn−1 = P (x) Este resultado da pie al siguiente lema. Lema 5.35. El polinomio caracteristico de una matriz asociada al polinomio P (x) es P (x). La forma canónica natural consiste en substituir por cada factor invariante de grado ni su respectiva matriz asociada. Analogamente a la forma canónica de Jordan, las matrices nilpotentes ahora son subtituidas por matrices naturales. Veamos algúnos ejemplos. Ejemplo 5.36. Tomemos de nuevo la matriz (5.1) del ejmplo 5.11 5 3 3 A = −3 −1 −3 −3 −3 −1 ya sabemos que su polinomio caracteristico esta dado por (1 + λ) (2 − λ)2 = λ3 − 3λ2 + 4 y su polinomio mı́nimo por (1 + λ) (2 − λ). Ya sabemos que la matriz caracteristica tiene la forma canónica diagonal 1 0 0 0 2−λ 0 0 0 − (1 + λ) (2 − λ) Por lo que, su forma canónica natural tendra para el factor invariante 2 − λ y otra célula − (1 + λ) (2 − λ) = λ2 − λ − 2 2 0 0 (5.6) N = 0 0 1 0 2 1 una célula natural de orden uno natural para el factor invariante 3. FORMA CANÓNICA NATURAL Ejemplo 5.37. Sea de nuevo A la matriz 6 3 A = −3 −1 −4 −3 75 (5.4) 4 −3 −2 Como ya vimos, el determinante de esta matriz es −4 y a traza es 3. Su polinomio 2 caracteristico es de nuevo (1 + λ) (2 − λ) y ahora el polinomio mı́nimo es también 2 (1 + λ) (2 − λ) . Esta matriz tiene una forma canónica diagonal para su matriz caracteristica dada por 1 0 0 0 1 0 2 0 0 (1 + λ) (λ − 2) 2 por lo que solo tiene una célula natural de grado tres para el polinomio (1 + λ) (λ − 2) = λ3 + 4λ2 − 3. Por lo que su forma natural será 0 1 0 (5.7) N = 0 0 1 3 0 −4 Ejemplo 5.38. Observemos como se relacionan las matrices canónicas de Jordan y la canónica natural. Por ejemplo, de las formás canónicas anteriores, se tiene que (5.6) y (5.3) se ralacionan sugún 2 0 0 2 0 0 0 0 1 = U 0 2 0 U −1 0 1 2 0 0 −1 1 0 0 b ab 6= 0 con U = 0 a 0 2a −b y para (5.7) y (5.5), la 0 0 −4 relación es 1 0 0 1 = 0 3 con Ejemplo 5.39. Sea T tiene solo dos clases, 0 [T ]1 = { 0 a U = 2 1 0 U 0 2 0 U −1 0 0 −1 a 0 b 2a a −b ab 6= 0 4a 4a b = {A | A es matriz 3 × 3 con trA = 0}. Entonces T 1 0 b 0 1 } 0 y q [T ]2 = { 0 0 0 0 2q 2 0 1 } −q Ejercicio 5.40. Demostrar que el conjunto de las matrices 3 × 3 sin traza tienen solo las dos clases anteriores. Ejercicio 5.41. Encontrar su respectivas formás canónicas de Jordan. 76 5. FORMAS CANONICAS Ejercicio 5.42. Encontrar la forma canónica natural de las matrices 5 1 0 0 −3 32 1 1 0 2 1 1 0 1 −2 1 −1 1 −1 2 2 5 3 1 −2 2 −2 3 −2 −1 −3 0 Ejercicio 5.43. Sea A una matriz con polinomio caracteristico (x − 2)3 (x − 1)2 2 y polinomio minimo (x − 2) (x − 1) . ¿Cual es su forma canónica natural? Ejercicio 5.44. Encontrar todas las formás canónicas naturales posibles de 3 2 una matriz que tiene polinomio caracteristico (x − 2) (x − 1) . 4 −6 1 Ejercicio 5.45. Sea A = −6 12 0 . Encuentre sus valores y vec−2 6 1 tores propios. Reduzca la matriz por operaciones elementales (invariantes) hasta su forma más elemental. ¿Cual es su Rango? Encuentre P tal que A = P Ad P −1 , donde Ad es la forma diagonal de A. −6 1 0 Ejercicio 5.46. Sea B = 12 0 1 Encuentre sus valores y vectores 6 1 1 propios. Reduzca la matriz por operaciones elementales (invariantes) hasta su forma más elemental. ¿Cual es su Rango? Ejercicio 5.47. Demuestre de forma sencilla que las matrices A y B anteriores no son similares. Ejercicio 5.48. Encuentre la forma canónica diagonal de las matrices caracteristicas de A y B Part 3 VARIABLE COMPLEJA CHAPTER 6 EL PLANO COMPLEJO 1. Los Números Complejos Generalmente se introducen los números argumentando que cada uno de estos conjuntos resuelve determinada ecuación algebraica. Asi por ejemplo, la ecuación x − 2 = 0 tiene solución en los números naturales N . Mientras que la ecuación x+2 = 0 ya no tiene solución en el conjunto de los números naturales, para resolverla hay que introducir los números enteros Z. Mas aun, la ecuación 2x − 1 = 0 solo puede resolverse introduciendo los números racionales Q. Hasta aqui se tiene que N ⊂ Z ⊂ Q. Sin embargo, la ecuación no lineal x2 − 2 = 0 no tiene solución en los números racionales. Esta ecuación tiene solución solo si se definen los números irracionales I. Se puede ver que I ∩ Q = φ. Entonces se introducen los números reales como ℜ = I ∪ Q. Aun ası́, la ecución x2 + 2 = 0 no tiene solución en los números reales. Entonces se introducen los números imaginarios (que son tan reales como√ los números reales), tal que x2 + 2 = 0 tenga solución. Se acostumbra escribir x = 2i, donde i es la unidad imaginaria, tal que i2 = −1, ası́ que x2 = −2. Finalmente los números complejos son la suma de numeros reales mas numeros imaginarios. La introducción de los numeros complejos es de gran ayuda en el análisis, como veremos, con numeros comples se pueden hacer muchas cosas incluso en el análisis real. Ası́, formalmente los números complejos se definen de la siguiente manera. Definición 6.1. El campo de los complejos C se define al conjunto 2 donde i = −1. C = {z = a + ib | a, b ∈ ℜ} Notación 6.2. A a se le llama la parte Real de z y a b la parte imaginaria, Re(z) = a, Im(z) = b. Notación 6.3. Sea R ⊂ C. A R se le llama una región. Graficamente los numeros complejos se representan también en coordenas polares. Sea a, b ∈ ℜ, podemos escribir a = r cos (θ) y b = r sin (θ) tal que un numero √ complejo z = a + ib = r(cos (θ) + i sin (θ)), vean la figura 1. Se sigue que r = a2 + b2 y θ = arctan (b/a). A la constante r se le llama el módulo de z y a θ el argumento de z. Notación 6.4. A r también se le denota por |z| = r y a θ como θ = arg (z). Un número complejo queda determinado por r y θ, hasta múltiplos de 2π, es decir, arg (z) = θ + 2πk, k = 0, ±1, · · · Ejercicio 6.5. Encuentre los modulos y argumentos de los siguientes números complejos 79 80 6. EL PLANO COMPLEJO Figure 1. Un número complejo se puede representar como z = x + iy = a + ib = r[cos(θ) + i sin(θ)]. 1, 1 + i, 5 + 3i, 1 − i, −5 + 3i, 5 − 3i, −5 − 3i. La estructura algebraica de los numeros complejos esta basada en la definición de la suma y el producto entre estos. Esta definición, obviamente se basa en la estructura de los numeros reales. Formalmente tenemos. Definición 6.6. Sean z1 , z2 ∈ C, entonces se define · La suma z1 + z2 = (a1 + ib1 ) + (a2 + ib2 ) = a1 + a2 + i (b1 + b2 ), · El producto z2 · z1 = (a1 + ib1 ) · (a2 + ib2 ) = a1 a2 − b1 b2 + i (a1 b2 + b1 a2 ) En coordenadas polares, la suma y el producto se ven como: Corolario 6.7. |z1 · z2 | = |z1 | · |z2 | y arg(z1 · z2 ) = arg (z1 ) + arg (z2 ). Demostración 6.8. z1 · z2 = r1 r2 (cos (θ1 ) + i sin (θ1 ))(cos (θ2 ) + i sin (θ2 )) = r1 r2 [cos (θ1 + θ2 ) + i sin (θ1 + θ2 )] La diferencia sustancial de los numeros coplejos con los numeros reales es que cada numero complejo tiene un acompañante natural a él llamado el complejo conjugado. Su definición es como sigue. Definición 6.9. Sea z ∈ C. El complejo conjugado de z = a + ib se define por z̄ = a − ib Claramente se tiene, 2 Corolario 6.10. z z̄ = |z| 2. Funciones en el Plano Complejo En esta sección vamos a estudiar el comportamiento de las funciones en el plano complejo, es decir, funciones que van del conjunto de los complejos al conjunto de los complejos. A pesar de que estas funciones son muy parecidas a las funciones en los reales, existen diferencias sutanciales que le dan una gran riqueza a las funciones 2. FUNCIONES EN EL PLANO COMPLEJO 81 en el plano complejo. Estas deferencias las vamos a utilizar para hacer calculos muy complejos en el plano real, simplificando la estructura y los calculos. Para iniciar esta sección, vamos a definir primero una función compleja. Definición 6.11. Una función en el plano complejo, es un mapeo f : C → C tal que a + ib → f (a, b) = u(a, b) + iv(a, b) Las propiedades fundamentales de funciones reales se pueden extender al caso de las funciones complejas. De una manera análoga a como se define continuidad en funciones de variable real, en variable compleja se define continiudad. Solo que la estructura compleja de estas funciones provocan cambios y sutilezas, que le dan mucha riquza estructural a las funciones complejas. Vamos a ver esto con cuidado. Vamos a iniciar con la definición de continuidad, de hecho es la misma definición que se usa en variable real, o en análisis o en topologia mas adelante. Solo que aqui, la definición implica algunos cambios interesantes. Definición 6.12. Sea f : C → C. La función f se llama continua en z ∈ C, si para toda ǫ > 0, con ǫ ∈ ℜ, uno puede encontrar δ > 0, δ ∈ ℜ, tal que |z − z ′ | < δ, implica |f (z) − f (z ′ )| < ǫ En palabras, f es continua en z, si para cualquier número z ′ suficientemente cerca de z, f (z ′ ) es suficientemente cerca de f (z). Figure 2. La función f (z) = x + 2iy. A cada punto x + iy del plano complejo, le asocia x + 2iy. Ejemplo 6.13. Sea f : C → C, tal que f (z) = x + 2iy, se representa graficamente en la figura 2. Esta función es continua en cero. Veamos esto. De la definición de continuidad se sigue que |z| < δ implica |x + 2iy| < ǫ, es decir p p x2 + y 2 < δ implica x2 + 4y 2 < ǫ Si escogemos ǫ = 2δ se cumple la desigualdad, vean la figura 3. Por lo tanto, se sigue que f es continua en cero. 82 6. EL PLANO COMPLEJO Figure 3. En el plano complejo de la izquierda se muestra la región (x2 + y 2 )1/2 < δ, mientras que en el plano de la izquierda se muestra la región (x2 + 4y 2 )1/2 < δ. Obsrvese como la región (x2 + y 2 )1/2 < ǫ < 2δ , contiene a la región (x2 + 4y 2 )1/2 < δ. Ejercicio 6.14. Decir si las siguiente funciones son continuas, o en su caso en donde no son continuas, usando la definición: 1) f (z) = z 2 2) f (z) = x + 2i y, para z = x + iy. z̄ 3) f (z) = x2 +y 2 , para z = x + iy. 4) f (z) = z + z̄ 5) f (z) = z̄ 6) f (z) = z z̄ 7) f (z) = z − 2z 2 8) f (z) = (z + 2)2 La definición de lı́mite en variable compleja es también análoga a la definición de lı́mite en variable real. Formalmente la definición de lı́mite de funciones de variable compleja es como sigue. Definición 6.15. Sea f : C→ C, y z1 , z2 ∈ C. El lı́mite de f cuando z tiende a z1 es z2 , si para toda N > 0 existe δ > 0 con N , δ ∈ ℜ tal que |z − z1 | < δ implica |f (z) − z2 | < N Notación 6.16. El lı́mite de f cuando z tiende a z1 es z2 se denota lim f (z) = z2 z→z1 La relación entre lı́mite y continuidad esta dada por las siguientes dos proposiciones. Proposición 6.17. Si limz→z1 f (z) = z2 y f (z1 ) = z2 , se sigue que f es continua. Demostración 6.18. Sabemos que para toda N > 0 existe δ > 0, con N , δ ∈ ℜ tal que |z − z1 | < δ implica |f (z) − z2 | < N . Hagamos N = ǫ y z1 = z ′ y 2. FUNCIONES EN EL PLANO COMPLEJO 83 como f (z1 ) = f (z ′ ) = z2 , entonces se tiene que para toda ǫ > 0 existe δ > 0, tal que |z − z1 | = |z − z ′ | < δ implica |f (z) − z2 | = |f (z) − f (z ′ )| < ǫ. Proposición 6.19. Sea f : C → C continua en z1 , con f (z1 ) = z2 . Entonces lim f (z) = z2 z→z1 Ejercicio 6.20. Demostrar la proposición. Ejercicio 6.21. Utilizando la proposición anterior, verificar si las funciones del ejercicio 6.14 son continuas. Existe una serie de propiedades de los lı́mites en variable compleja completamente análogas a variable real. Vamos a escribirlas y a escribir solo una demostracion parcial. De hecho la demostración es como en variable real, por eso no incluiremos toda la demostración. Teorema 6.22 (sobre lı́mites.). Sean f (z) y F (z) funciones cuyos lı́mites z → z0 existen y estan dados por lim F (z) = W0 6= 0 lim f (z) = w0 z→z0 z→z0 Entonces 1) lim [f (z) + F (z)] = w0 + W0 z→z0 2) lim [f (z)F (z)] = w0 W0 z→z0 3) lim z→z0 w0 f (z) = F (z) W0 4) Si f (z) = u(x, y) + iv(x, y) se sigue lim f (z) = z→z0 lim x→x0 ,y→y0 u(x, y) + i lim x→x0 ,y→y0 v(x, y) Demostración 6.23. Supongamos que F (z) = U (x, y) + iV (x, y) y f (z) = u(x, y) + iv(x, y). Demostremos el insiso 3). Se tiene que lim z→z0 f (z) F (z) = = = = u + iv U + iV (u + iv) (U − iV ) lim z→z0 U2 + V 2 uU vV lim + 2 x→x0 ,y→y0 U2 + V 2 U +V2 vU uV +i lim − 2 x→x0 ,y→y0 U2 + V 2 U +V2 v0 V0 u 0 U0 + 2 U02 + V02 U0 + V02 v0 U0 u0 V0 +i − 2 U02 + V02 U0 + V02 lim z→z0 84 6. EL PLANO COMPLEJO donde en la ultima identidad hemos usados los teoremas de variable real. Entonces, reagrupando de nuevo se tiene que u0 + iv0 f (z) = lim z→z0 F (z) U0 + iV0 Ejercicio 6.24. Demostrar el resto del teorema usando los teoremas similares de lı́mites en variable real. Con la propiedad 4) podemos utilizar los teoremas y métodos comunes de variable real para obtener lı́mites de funciones en variable compleja. Este resultado lo usaremos constentemente en adelante. 3. La Derivada en el Plano Complejo La derivada de funciones de variable compleja tiene un comportamiento análogo a la derivación de funciones en los reales. Sin embargo, es aqui donde las sutilezas del plano complejo empiezan a ser importantes, y las analogı́as se interrumpen debido a algunas diferencias que hacen del plano complejo algo diferente. Son estas diferencias las que nos interesan, pero son las analogı́as las que vamos a utilizar continuamente. Vamos a iniciar con la definición de la derivada en variable compleja. Definición 6.25. Sea f : C → C continua en z. La derivada de f en z se define como df f (z + △z) − f (z) = lim dz ∆z→0 △z si este lı́mite existe y es único, se dice que la derivada existe. Si comparamos la definición anterior con la derivada de funciones en los reales, veremos que son aparentemente iguales. Pero para ver la diferencia y similitudes, vamos a ver algunos ejemplos. Ejemplo 6.26. Sea f (z) = 2x + 2iy, entonces la derivada en cero de esta función esta dada por df f (△z) − f (0) 2x + 2iy = lim =2 = lim x→0,y→0 x + iy △z→0 dz △z z=0 donde hemos escrito △z = x + iy, ası́ que el lı́mite y por tanto la derivada es 2. El resultado del ejemplo anterior no es sorprendente, en variable real la función anterior f (z) = 2z = 2x+2iy también es deribable. Sin embargo veamos el siguiente ejemplo. Ejemplo 6.27. Sea f (z) = x + 2iy, entonces la derivada de esta función esta dada por df x + 2iy x2 + 2y 2 + ixy f (△z) − f (0) = lim = lim = lim x→0,y→0 x + iy x→0,y→0 △z→0 dz △z x2 + y 2 z=0 pero este lı́mite no conmuta, ya que si tomamos primero x → 0 y luego y → 0, vean la figura 4, obtenemos df =2 dz z=0 3. LA DERIVADA EN EL PLANO COMPLEJO Figure 4. x + iy a 0. 85 Dos trayectorias por las que se puede ir del punto Pero si tomamos primero el lı́mite y → 0 y luego x → 0 obtenemos df =1 dz z=0 lo que nos dice que f no es derivable en z = 0 Ejercicio 6.28. Usando la definición, encontrar la derivada, cuando exista, de las funciones del ejercicio 6.14. En su caso, decir en que puntos la función no es derivable. 3.1. Fórmulas de derivación: En variable compleja las formulas de derivación son generalmente las mismas que las usadas en variable real, si sabemos que la derivada existe. El problema es saber cuando una función de variable compleja es derivable. Para saberlo, existen una forma sencilla de determinar si una función de variable compleja es derivable o no. Esto se hace utilizando las condiciones de Cauchy-Riemann. Estas condiciones se ven en el siguiente teorema. Teorema 6.29 (de Cauchy-Riemann). Sea f : C → C tal que f (z) = u(x, y) + iu(x, y) con u, v ∈ C 1 . Entonces f es derivable en z, sı́ y solo sı́ ∂v ∂u ∂v ∂u = y =− ∂x ∂y ∂y ∂x 86 6. EL PLANO COMPLEJO Demostración 6.30. ⇒) Supongamos f derivable. Entonces el lı́mite f (z + ∆z) − f (z) df = lim dz ∆z→0 ∆z existe y es único. Según los teoremas de lı́mite real, este lı́mite no depende de la trayectoria por la cual ∆z → 0. Tomemos dos trayectorias diferentes: 1) ∆y → 0 y luego ∆x → 0, y la trayectoria 2) ∆x → 0 y luego ∆y → 0. Entonces para 1) u(x, y + ∆y) − u(x, y) df ∂u ∂v v(x, y + ∆y) − v(x, y) = lim +i = −i ∂y + ∂y dz ∆y=0 i∆y i∆y f′ = Para la trayectoria 2) se tiene u(x + ∆x, y) − u(x, y) df v(x + ∆x, y) − v(x, y) ∂u ∂v = lim +i = ∂x + i ∂x dz ∆x→0 ∆x ∆x Lo que implica las condiciones de Cauchy-Riemann ⇐) Supongamos que se cumplen las condiciones de Cauchy-Riemann. Como u, v y son de clase C 1 , son continuas y con derivadas continuas, entonces podemos escribir por el teorema del valor medio que ∆u = u(x + ∆x, y + ∆y) − u(x, y) = ∂u ∂u ∆x + ∆y + ǫ1 ∆x + ǫ2 ∆y ∂x ∂y donde ǫ1 y ǫ2 tienden a cero cuando ∆x y ∆y tienden a cero. Lo mismo para ∆v. Entonces ∆f = = f (z + ∆z) − f (z) = ∆u + i∆v ∂u ∂u ∆x + ∆y + ǫ1 ∆x + ǫ2 ∆y ∂x ∂y ∂v ∂v −i( ∆x + ∆y + ǫ3 ∆x + ǫ4 ∆y) ∂x ∂y Como las condiciones de Cauchy-Reimann se cumplen, tenemos ∆f = ∂u ∂v (∆x + i∆y) + i (∆x + i∆y) + ∆xδ1 + ∆yδ2 ∂x ∂x donde δ1 y δ2 son combinaciones lineales de las ǫ’s. Ahora bien, |∆x| ≤ |∆z| y |∆y| ≤ |∆z|, por lo tanto |∆x/∆z| ≤ 1 y |∆y/∆z| ≤ 1. Ası́ que ∂u ∂v ∂v ∂u ∆f ′ = +i = −i +i f (z) := lim ∆z→0 ∆z ∂x ∂x ∂y ∂y ya que los últimos términos tienden a cero, cuando ∆z → 0. Por lo tanto la derivada de f (z) existe. En lo que sigue vamos a trabajar con funciones que son derivables en una región o al menos no lo son en puntos definidos. Cuando una función es derivable en un entorno, en una región del espacio complejo, se dice que es analı́tica ahi. El resto de nuestro estudio de funciones de variable compleja se limitara al estudio de funciones analı́ticas, o no analı́ticas en solo puntos bien definidos. Vamos a ver la definición formal de función analı́tica. 3. LA DERIVADA EN EL PLANO COMPLEJO 87 Definición 6.31. Una función f : C → C es analı́tica, holomorfa ó regular en un punto z0 ∈ C, si su derivada existe en un entorno de z0 , es decir, si existe un ǫ > 0 tal que f ′ existe para todo z ∈ {z | |z − z0 | < ǫ, ǫ ∈ ℜ+ } Para familiarizarnos con esta importate definición, vamos a ver algunos ejemplos. Ejemplo 6.32. Sea la función f (z) = |z|2 = z z̄ = x2 + y 2 . Las condiciones de Cauchy-Riemann para esta función son ∂u ∂v = 2x; =0 ∂x ∂y y ∂u ∂v = 2y; =0 ∂y ∂x y solo se cumplen para z = 0. Por lo que |z|2 no es analı́tica, pues solo es derivable en z = 0. 2 Ejemplo 6.33. Por otro lado, para la función f (z) = z 2 = (x + iy) = x2 − 2 y + 2ixy se tiene que u = x2 − y 2 y v = 2xy, ası́ que ∂u ∂x ∂u y ∂y ∂v =2x ∂y ∂v = −2y; =2y ∂x = 2x; Es decir, las condiciones de Cauchy-Riemann se cumplen siempre, por lo que z 2 es una función analı́tica. Ejercicio 6.34. Usando las condiciones de Cauchy-Riemann, verificar cual de las funciones del ejercicio 6.14 son analı́ticas y en que puntos no lo son. Cuando un función compleja no es analı́tica en puntos determinados, se dice que la función es singular en esos puntos. Al punto mismo se le llama singularidad o polo. Formalmente se tiene. Definición 6.35. Sea f : C ⇀ C analı́tica en cada punto en el entorno de z0 , pero no en z0 . Se dice que z0 es un punto singular de f . Veamos un ejemplo de singularidad. Ejemplo 6.36. Sea f (z) = 1/z. Su derivada es f ′ = −1/z 2. Esta función se puede escribir como 1 f (z) = x + iy x iy = −i 2 2 2 x +y x + y2 por lo que u = x/ x2 + y 2 y v = −y/ x2 + y 2 . Entonces las condiciones de Cauchy-Riemann son ∂v x2 − y 2 =− 2 y ∂y (x2 + y 2 ) ∂u ∂x = ∂u ∂y = − ∂v 2xy =− 2 ∂x (x2 + y 2 ) 88 6. EL PLANO COMPLEJO las cuales no estan definidas en z = 0. La función es analı́tica para z 6= 0, pero no para z = 0, entonces z = 0 es un punto singular de f . Comentario 6.37. Todo polinomio en z, P (z) = a0 + a1 z + a2 z 2 + · · · + an z n es analı́tico, ya que sus derivadas existen para toda z ∈ C. Ejercicio 6.38. Señale los puntos singulares de las funciones del ejercicio 6.14. Existen algunas propiedades muy importantes para decidir si una función es analı́tica o no. Estas propiedades simplifican enormemente el trabajo para poder saber si una función es analı́tica en alguna región. Vamos a ver estas propiedades en la siguente proposición. Proposición 6.39. Sean P (z) y Q(z) funciones analı́ticos en una región R ⊂ C. Entonces 1) P · Q es analı́tica. 2) P + Q es analı́tica. 3) P/Q es analı́tico para toda región R1 ⊂ C tal que Q 6= 0 4) P ◦ Q es analı́tica Demostración 6.40. Vamos a demostrar 3). Sean P y Q analı́ticas y Q 6= 0 en una región R1 . Entonces 1 d P d d P = Q+ P − dz Q Q Q dz dz como P y Q son analı́ticas y Q 6= 0, las derivadas de P y Q existen en un entorno y las funciones P y Q existen en ese entorno y son continuas. Dado que Q 6= 0 en R1 , la función 1/Q es continua en ese entorno y por lo tanto la derivada de P/Q existe y es continua en R1 . Es decir, P/Q es analı́tica. Ejercicio 6.41. Demostrar el resto de la proposición. Ejercicio 6.42. Utilizando esta proposición, confirme cual de las siguiente funciones son analı́ticas y en que región. 1) f (z) = z 2 2) f (z) = x + 2i y, para z = x + iy. z̄ 3) f (z) = x2 +y 2 , para z = x + iy. 1 4) f (z) = z+2z̄ 5) f (z) = z̄1 6) f (z) = z1z̄ 1 7) f (z) = z−2z 2 1 8) f (z) = z+2 4. Funciones Armónicas Una conclusión inmediata de las condiciones de Cauchy-Riemman son el hecho que las funciones reales que forman la función de variable compleja, cumplen la 4. FUNCIONES ARMÓNICAS 89 ecuación de Laplace en el plano, en la región donde son analı́ticas. A estas funciones se les llama armónicas. Para ver esto, vamos a seguir el siguiente razonamiento. Sea f (z) = u + iv una función analı́tica en alguna región alrededor de z, es decir, se tiene que. ∂u ∂v ∂u ∂v = , =− ∂x ∂y ∂y ∂x entonces f ′ (z) existe. Si las funciones u y v tienen derivadas continuas y a su vez derivables, se debe cumplir que (6.1) ∂2v ∂2v = ∂x∂y ∂y∂x Vamos a usar las condiciones de Cauchy-Riemann en la indentidad (6.1), se obtiene que ∂2u ∂2v = ∂x∂y ∂x2 ∂2v ∂ 2u =− 2 ∂x∂y ∂y Si sumamos estas dos indentidades, obtenemos ∂2u ∂2u + 2 =0 ∂x2 ∂y Esta es es la ecuación de Laplace para la función u. A estas funciones se les llama funciones armónicas. Formalmente tenemos. Definición 6.43. Toda función que cumple la ecuación de Laplace ∂2u ∂2u + 2 =0 ∂x2 ∂y se llama armónica. Notación 6.44. también se denota la ecuación de Laplace por ∇2 u = ∂2u ∂2u + 2 =0 ∂x2 ∂y . Análogamente, si f es analı́tica, se tiene que ∂2v ∂2v + =0 ∂x2 ∂y 2 Entonces se tiene el siguiente lema. Lema 6.45. Para toda función donde f = u + iv y se tenga que f es analı́tica se sigue entonces que u y v son armónicas. Ejercicio 6.46. Diga cual de las funciones de los ejercicios 6.14 y 6.42 son armónicas. 90 6. EL PLANO COMPLEJO 4.1. Funciones Elementales. Las funciones elementales en variable real pueden ser extendidas a variable compleja de una manera sencilla. Para definir funciones en variable compleja lo que se hace es tomar las funciones polinomiales y simplemente se traducen cambiando la variable real por la compleja, x ⇀ z. Las funciones trasendentes se traducen a variable compleja mas indirectamente: en variable compleja son definidas según su expresión en series de Taylor. Por ejemplo: ez = 1 + z + o análogamente 1 2 z + ··· 2! 1 iz (e + e−iz ) 2 1 iz (e − e−iz ) sin (z) = 2 etc. Estas funciones elementales se derivan, suman ó multiplican igual que las funciones de variables reales. Sin embargo, las funciones ahora no se ven graficamente igual a las de variable real. Por ejemplo, es fácil ver aquı́ también que se sigue la identidad ez = ex+iy = ex (cos(y) + i sin(y)) por lo que la exponencial de un número complejo es una función periódica, es decir, ez+2ikπ = ez , para todo k = 0, ±1, ±2, · · · . Esto causa que la función inversa a la exponencial no sea una función, ya que esta multivaluada. Por eso se acostrumbra tomar a la función ln como la que se obtiene para k = 0. Otra diferencia interesante es que las funciones trigonometicas y las hiperbolicas estan relacionadas entre sı́. Por ejemplo, sin(z) = −i sinh(iz), o cos(z) = cosh(iz), etc. cos (z) = Ejercicio 6.47. Usando esta analogia, verifique cual de las siguintes funciones son analı́ticas y armónicas y en que puntos. 1) f (z) = ez 2) f (z) = sin (z) 3) f (z) = cos (z) 4) f (z) = ln (z − 1) 5) f (z) = sinh (z) 6) f (z) = cosh (z) 7) f (z) = arcsin (z) 8) f (z) = arctan (z) 5. La Integral en el Plano Complejo De nuevo existe un analogia estrecha entre la integración de variable real y la integración en variable compleja. Pero existen sutilezas que las hacen diferentes. Por ejemplo, a diferencia de la integración en una variable real, la integración en variable compleja es equivalente a la integración en un plano, llamado el plano complejo. Es por eso que para definir la integral de una función compleja, necesitamos definir una curva por donde se va a llevar a cabo la integrar. Entonces iniciemos con las siguientes definiciones. Definición 6.48. Sea γ : ℜ ⇀ C un mapeo. Si γ es de clase C 0 se dice que γ es una curva en C, vean la figura 5. 5. LA INTEGRAL EN EL PLANO COMPLEJO 91 Figure 5. Una curva definida en el plano complejo. Una curva es un mapeo que va de los números reales al plano complejo. Definición 6.49. Sea γ una curva en C y P una partición del intervalo (0, 1) con γ : (0, 1) → C. Si ti ∈ P, sea γ(ti ) = zi y ∆j z = zj − zj−1 , vean la figura 6. Sea zj cualquier punto en la curva entre zj−1 y zj . La integral de f (z) a lo largo de γ se define como. Figure 6. Una partición del intervalo (0, 1) mapea una curva partida en secciones, dando como resultado una particin de la curva. Z γ f (z)dz = lim n→∞ n X f (zj )∆j z j=1 La integración de funciones de variable compleja se puede reducir a integraciones en los reales, separando la función compleja en su parte real y su parte imaginaria. Esta separación la podemos ver en el siguiente teorema. 92 6. EL PLANO COMPLEJO Teorema 6.50. Sea f (z) = u + iv una función f : C ⇀ C. La integral de f a lo largo de una curva γ esta dada por Z Z Z (udx − vdy) + i (vdx + udy) f (z)dz = γ γ γ donde las integrales del lado derecho son integrales de linea reales. Demostración 6.51. Sea f = u(x, y) + iv(x, y) y sean ∆j z = zj − zj−1 = xj − xj−1 + i(yj − yj−1 ) = ∆j x + i∆j y j = 1, · · · , n. De la definición. Z n X [u(x′j , yj′ ) + iv(x′j , yj′ )](∆j x + i∆j y) f (z)dz = lim n→∞ γ = lim n→∞ j=1 n X j=1 +i lim n→∞ [u(x′j , yj′ )∆j x − v(x′j , yj′ )∆j y] + n X [v(x′j , yj′ )∆j x + u(x′j , yj′ )∆j y] j=1 Estos últimos lı́mites son las integrales de linea de las funciones correspondientes, ası́ se sigue el teorema. Comentario 6.52. Si podemos representar γ en su forma paramétrica, tal que γ : ℜ ⇀ C, t → γ(t) = φ(t) + iψ(t) = x + iy, entonces se tiene que dx = φ′ dt, dy = ψ ′ dt y la integral Z t2 Z t2 Z (vφ′ + uψ ′ )dt (uφ′ − vψ ′ )dt + i f (z)dz = t1 t1 γ la cual existe si f (z) es continua. Corolario 6.53. Sean γ una curva formada por un número finito de curvas γ1 , · · · , γn . Entonces Z Z Z Z f (z)dz f (z)dz + f (z)dz + · · · + f (z)dz = γ1 γ γn γ2 Veamos algunos ejemplos sencillos para familiarizarnos con el teorema anterior. Ejemplo 6.54. Vamos a calcular la integral Z 2+i z 2 dz I1 = 0 por la trayectoria 0A de la figura 7, que es la linea recta entre 0 → A = 2 + i dada por y = 1/2x. Se tiene que z 2 = x2 − y 2 + 2xyi y dz = dx + idy. Entonces Z Z 2 2 I1 = [(x − y )dx − xy dy] + i [2xy dx + (x2 − y 2 )dy] γ γ Sobre OA, x = 2y y dx = 2dy Z Z 1 2 2 2 (4y − y )2dy − 2y dy + i I1 = 0 0 1 2 11 8y 2 dy + (4y 2 − y 2 )dy = + i 3 3 5. LA INTEGRAL EN EL PLANO COMPLEJO 93 Figure 7. Las trayectorias que unen el origen con el punto 2 + i. Ejemplo 6.55. Ahora tomemos otra trayectoria. Vayamos por el eje de las x hasta el punto B = (2, 0) y luego subamos por la recta perpendicular hasta A = (2, i). Por la trayectoria 0BA. A lo largo de 0B, z = x, dz = dx. A lo largo de BA , z = 2 + iy, dz = idy. Se obtiene Z 2 Z 1 2 11 8 11 2 i(4 − y 2 ) − 4y dy = + i − 2 = + i I2 = x dx + 3 3 3 3 0 0 es decir 2+i 1 2 11 1 I2 = I1 = z 3 = (2 + i)3 = + i 3 0 3 3 3 R 2 Ejemplo 6.56. Evaluemos la integral I = γ z dz a lo largo del cı́rculo de radio 1, como en la figura 8, es decir a lo largo de la trayectoria r2 = x2 + y 2 = 1. Para hacer esta integral, conviene hacer un cambio de variable, sean x = r cos (θ), y = r sin (θ), tal que x + iy = cos (θ) + i sin (θ) = eiθ . Entonces z = eiθ y por tanto dz = ieiθ dθ sobre el cı́rculo. Se tiene que Z 2π 2π 1 I2 = i e2iθ eiθ dθ = e3iθ 0 = 0 3 0 Ejemplo 6.57. Evaluemos ahora la integral Z 1 dz I= z γ a lo largo del cı́rculo de radio 1, de nuevo como en la figura 8. también hacemos el cambio de variable x = cos (θ), y = sin (θ). Se tiene que Z 2π I2 = i eiθ e−iθ dθ = 2πi 0 94 6. EL PLANO COMPLEJO Figure 8. La trayectoria dada por el crculo de radio 1, x2 + y 2 = cos(θ) + i sin(θ) = eiθ . R Ejercicio 6.58. Evaluar la integral γ f (z)dz, donde f (z) son las funciones del ejercicio 6.42 y γ es la trayectoria dada por |z| = 1. Las propiedades de las integrales en variable compleja es muy semajante a las propiedades de las integrales de variable real. Sin embargo hay diferencias sustanciales que es justamente lo que hace tan importante el estudio de las funciones de variable compleja y su integración. Estas diferencias las veremos mas adelante, por ahora veamos sus propiedades. Proposición 6.59 (Propiedades de las integrales.). Sea f : C ⇀ C integrable, γ y β trayectorias. Entonces, se cumple que a) Z Z f (z)dz = − f (z)dz −γ γ b) kf (z)dz = k Z (f (z) + g(z)) dz = γ c) Z Z γ f (z)dz para toda k ∈ C Z γ f (z)dz + Z (z)dz γ Demostración 6.60. La demostración se sigue de las propiedades de integrales de linea. 5. LA INTEGRAL EN EL PLANO COMPLEJO 95 El comportamiente de las dos integrales de los ejemplos y ejercicios anteriores es generico y corresponde a un teorema de variable compleja muy importante. Este es: Teorema 6.61. Sea f : C ⇀ C univaluada y analı́tica dentro y sobre una curva cerrada γ, entonces. Z f (z)dz = 0 γ Demostración 6.62. Usando el teorema de Green en el plano Z Z Z ∂Q ∂P − )dx dy (P dx + Qdy) = ( ∂y R ∂x y usando f (z) = u + iv, y como f (z) es continua, obtenemos, Z Z Z ∂v ∂u ( (udx − vdy) = − + )dx dy ∂y R ∂x y Z Z Z ∂u ∂v − )dx dy ( (vdx + udy) = ∂y R ∂x Pero como f es anaı́tica, ambas integrales son cero, por las condiciones de CauchyRiemann, (la hipótesis f (z) continua incluso se puede eliminar). Definición 6.63. Sea R ⊂ C una región en C. Decimos que R es simplemente conexa, si toda curva cerrada considerada dentro de ella, sólo contiene puntos de R, vean la figura 9. Definición 6.64. Una región R que no es simplemente conexa, se llama de conexión múltiple. Ejemplo 6.65. La figura 10 muestra una región de conexión múltiple. Los puntos dentro de C2 y C3 no están en C1 . A partir de aqui ya podemos iniciar un conjunto de teoremas y resultados para la integración de funciones de variable compleja. Estos teoremas son los que utilizaremos en la practica para multiples cosas. Vamos a iniciar con un teorema para la integración de funciones analı́ticas, univaluadas en regiones de conexión multiple. Teorema 6.66. Sea f (z) una función univaluada y analı́tica en y sobre el contorno de una región de conexión multiple R. Si B es el contorno de R formado por un número finito de curvas cerradas, independientes se tiene que: Z f (z)dz = 0 B Demostración 6.67. Se toma una trayectoria cerrada unica en la región de conexión multiple, como el ejemplo que se muestra en la figura 11. Otro resultado importante es que la integración de funciones analı́ticas no depende de la curva cerrada sobre la que se integra. 96 6. EL PLANO COMPLEJO Figure 9. Una región R es simplemente conexa, si toda curva cerrada considerada dentro de ella, sólo contiene puntos de R. Aquı́ se ven dos regiones: C2 , en donde toda curva cerrada contiene sólo puntos de C2 , es decir, la curva que la rodea se puede hacer tan pequeña como sea, y el cı́rculo que rodea al agujero C3 , que no puede hacerse tan pequeño como se quiera. Por eso C1 no es simplemente conexa. Teorema 6.68. Sea f : C ⇀ C integrable. Si f (z) es analı́tica, se sigue que Z Z f (z) f (z) = γ1 γ2 para todas dos trayectorias cerradas γ1 y γ2 , es decir, trayectorias que inician y terminan en el mismo punto en C . Demostración 6.69. −γ1 ◦ γ2 = γ es cerrada. Ver figura 12. Veamos un ejemplo para clarificar estos últimos resultados. Ejemplo 6.70. Integremos la función 1/ z 2 + 16 en una región entre dos cı́rculos concentricos alrededor de 0, como se muestra en la figura 13. Esta función es singular en z = ±4i. Sobre el cı́rculo exterior, z = 2eiθ y sobre el interior se tiene que z = eiθ . Entonces separemos la integración en los dos cı́rculos, se tiene: Z Z 2π Z 2π dz 2eiθ dθ eiθ dθ = i + i 2 4e2iθ + 16 e2iθ + 16 B z + 16 0 0 2π 2π 1 1 1 2iθ 1 2iθ = arctan e + 4 arctan 4 e 4 2 0 = 0 0 5. LA INTEGRAL EN EL PLANO COMPLEJO 97 Figure 10. La figura muestra una región de conexión múltiple. Los puntos dentro de C2 y C3 no están en C1 , son agujeros de esta región. ya que e0 = e4iπ = 1. Es mas, podemos ver que Z 0 2π 2eiθ dθ =− 4e2iθ + 16 Z 0 2π eiθ dθ + 16 e2iθ que corresponde a la integral a lo largo de cada cı́rculo por separado, pero en sentido contrario. Ejercicio 6.71. Usando los teoremas anteriores, diga en que regiones las funciones de los ejercicios 6.14 y 6.42 tienen integrales diferentes de cero para trayectorias cerrdas. Análogamente al teorema fundamental del cálculo, aqui también se puede ver que la integral de una función analı́tica, es su antiderivada. Por lo que la analogia de la integración de funciones analı́ticas con funciones de variable real, es muy profunda. Veamos este teorema. Teorema 6.72. Sean f (z) : C ⇀ C y F (z) : C ⇀ C funciones analı́ticas. Si Z z f (z ′ )dz ′ , entonces F ′ (z) = f (z) F (z) = z0 Ejercicio 6.73. Demostrar el teorema. La integral de una función analı́tica es entonces analı́tica. 98 6. EL PLANO COMPLEJO Figure 11. Región de conexión múltiple unida con trayectorias que la unen a la trayectoria principal para formar una trayectoria cerrada única. 6. La Integral de Cauchy Uno de los teoremas mas importantes en varaiable compleja y que mas vamos a usar en adelante es el teorema de Cauchy. Bası́camente es una fórmula para evaluar integrales que son singulares en un punto y queremos llevar a cabo la integral en una región que contenga la singularidad. Como vimos, la integral cerrada de una función analı́tica es cero. Pero la singularidad contenida en la región de integración hace que la integral de la función singular ya no sea cero. Lo bonito del teorema es que no solo nos dice que la integral existe, sino nos da una fórmula muy simple para calcularla. Veamos este teorema. Teorema 6.74 (de Cauchy). Sea f : C ⇀ C función univaluada y analı́tica dentro y sobre una curva cerrada γ. Si z0 es cualquier punto interior a γ, se tiene que Z f (z) 1 dz f (z0 ) = 2πi γ z − z0 A esta integral se le llama fórmula de la integral de Cauchy. Demostración 6.75. Sea γ una curva que contenga z0 , vean la figura 14. Sea r0 = |z − z0 |, tal que γ0 = {z ∈ C | z − z0 | ≤ r} ⊆ γ(ℜ). Como f (z) es analı́tica, se sigue que f (z)/ (z − z0 ) es analı́tica, salvo en z = z0 . Por el teorema de conexión multiple de Cauchy, se tiene Z Z f (z) f (z) − =0 z − z z − z0 0 γ0 γ 6. LA INTEGRAL DE CAUCHY 99 Figure 12. La composición de las dos trayectorias 1 y 2 es cerrada. Obviamente esta trayectoria se une en algún lugar a través de una recta que va y regresa como en la figura anterior. es decir: Z γ f (z)dz = f (z0 ) z − z0 iθ Z γ0 dz + z − z0 Z γ0 iθ f (z) − f (z0 ) dz z − z0 Sobre γ0 , (z − z0 ) = r0 e , por lo que dz = ir0 e dθ, es decir Z Z 2π −iθ dz e = ir0 eiθ dθ = 2πi r0 γ0 z − z 0 0 Como f (z) es continua, esto implica que para toda ǫ ∈ ℜ, existe δ > 0 tal que |z − z0 | < δ, implica que |f (z) − f (z0 )| < ǫ. Tomemos δ = r0 , entonces Z Z Z |f (z) − f (z0 )| ǫ f (z) − f (z0 ) dz ≤ |dz| < |dz| z − z0 |z − z0 | r0 γ0 γ0 γ0 Z 2π ǫ ǫ = |ir0 eiθ dθ| = 2π r0 = ǫ2π r0 0 r0 Por lo que esta integral será más pequeña que 2πǫ, que tiene el valor tan pequeño como se quiera. Por lo que esta integral es cero. Una implicación inmediata, es que si derivamos la fórmula de Cauchy obtenemos una fórmula equivalente. Es decir. 100 6. EL PLANO COMPLEJO Figure 13. Trayectoria de integración dada por dos cı́rculos centrados en el origen. Corolario 6.76. 1 f (z0 ) = 2πi ′ Z γ f (z) dz (z − z0 )2 Claramente este proceso se puede llevar a cabo para obtener las derivadas de orden mayor. Lo que sigue es aprender a usar la fórmula. Para esto proponemos los siguientes ejercicios. Ejercicio 6.77. Realice las siguientes integrales R 1) γ z 2 dz, donde γ es cualquier trayectoria cerrada. R 2) γ cos(z)/(z + 1)2 dz, donde γ es un cı́rculo de radio 1/2 y centro en cero. R 3) γ cos(z)/(z + 1)2 dz, donde γ es un cı́rculo de radio 2 y centro en cero. R 2z+1 4) γ z+z dz, donde γ es un cı́rculo de radio 2 y centro en cero. R 2z+12 5) γ z+z2 dz, donde γ es un cı́rculo de radio 1/2 y centro en cero. R 3 2 −1 6) γ 4zz(z+z 2 −1) dz, donde γ es un cı́rculo de radio 2 y centro en cero. R 4z3 +z2 −1 7) γ z(z2 −1) dz, donde γ es un cı́rculo de radio 1/2 y centro en cero. R 2 −2z−1 8) γ z z+z dz, donde γ es un cı́rculo de radio 1/2 y centro en 1. 2 El teorema y el corolario anteriores son de suma importancia para evaluar integrales, tanto en el caso de variable compleja como en variable real. Mas adelante 6. LA INTEGRAL DE CAUCHY 101 Figure 14. Trayectoria de integración utilizada en el teorema de Cauchy. dedicaremos una sección a este importante resultado. Por ahora vamos a intruducir otra consecuencia directa de la fórmula de Cauchy que nos servira para la evaluación de integrales. Este teorema es el siguiente. Teorema 6.78. Sea f : C → C una función univaluada y analıtica en un punto, entonces sus derivadas de todos los órdenes, f ′ (z), f ′′ (z), · · · , son también funciones analı́ticas en dicho punto. Demostración 6.79. f (z) analı́tica implica que f ′ (z) existe en algún entorno para el cual f (z) es analı́tica. Si usamos el corolario anterior, encontramos que Z 2! f ′ (z) ′′ dz f (z0 ) = 2πi γ (z − z0 )3 Usemos el entorno |z − z1 | = r1 dentro del entorno cubierto por γ, entonces f ′′ (z0 ) existe y por tanto f ′ (z0 ) es analı́tica. Repitiendo el argumento se sigue que f (n) (z0 ) es analı́tica. Esto implica que si f = u + iv, entonces u y v, serı́an funciones de clase C ∞ . Este teorema nos conduce a la fórmula Z n! f (z)dz (6.2) f (n) (z0 ) = 2πi γ (z − z0 )n+1 n = 1, 2, · · · Claramente esta fórmula se cumple igual si en vez de una región conexa, se toma una región de conexión múltiple que contenga en su interior al punto z0 . El 102 6. EL PLANO COMPLEJO resultado opuesto también es válido, es decir, si la integral de una función es cero para cualquier trayectoria cerrada, entonces la función es analı́tica. A este teorema se conoce como el teorema de Morera. Teorema 6.80 (de Morera). Sea f : C ⇀ C una función continua en la región R. Si para cualquier trayectoria γ cuyo contorno este dentro de R se cumple que Z f (z)dz = 0 γ entonces f (z) es analı́tica en R. Demostración 6.81. Sin Dem. Ejercicio 6.82. Realice las siguientes integrales 5 R 1) γ ez / z 2 + 1 dz, donde γ es cualquier trayectoria cerrada. R 2) γ cos(z)/(z − 1)5 dz, donde γ es un cı́rculo de radio 1/2 y centro en cero. R 3) γ cos(z)/(z − 1)5 dz, donde γ es un cı́rculo de radio 1/2 y centro en 1. R 3 −z 2 +5z+1 dz, donde γ es un cı́rculo de radio 2 y centro en cero. 4) γ 3z (z 2 2 R 3z3 −z−1) 2 +5z+1 5) γ (z2 −1)2 dz, donde γ es un cı́rculo de radio 1 y centro en 1. CHAPTER 7 SERIES Una de las aplicaciones prácticas de la teorı́a de variable compleja es sin duda el hecho de que esta teorı́a nos da métodos muy poderosos para evaluar integrales. El objetivo de este capitulo es introducir una serie de métodos utilizando todo lo que hemos aprendido y la teorı́a de series en variable compleja, para poder evaluar integrales complicadas. Para eso, es necesario intruducir la teorı́a de series en variable compleja y es lo que haremos primero. 1. Series en el Plano Complejo La definición de las series en variable compleja es completamente análogo a las series en variable real. Una serie es entonces una suma de la forma ∞ X (7.1) z1 + z2 + · · · + zn + · · · = zn n=1 La serie será convergente si su parte real y su parte imaginaria lo son por separado. Para determinar si una serie converge entonces, se usan los métodos comunes en la determinación de convergencia en variable real. Vamos a recordar brevemente algunos criterios. 1)PCriterio de comparación. Si 0 ≤ n ≤ bn , para toda n, entonces si la Pa ∞ ∞ serie n=1 bn converge, también converge n=1 an . 2) Prueba del cociente. Sea an > 0 para todo n y an+1 lim =r n→∞ an P∞ entonces n=1 an converge si r < 1. 3) Teorema de Leibniz. Si a1 ≥ a2 ≥ · · · ≥ 0 y lim an = 0 n→∞ P∞ entonces la serie n=1 (−1)n+1 an = a1 − a2 + a3 − a4 · · · converge. Para aplicar estos criterios de convergencia se toman la parte real y la imaginaria por separado y se aplica entonces a las series de variable compleja. Sin embargo, podemos definir algo mas fuerte que convergente, que se llama absolutamente convergete. Su definición es como sigue: Definición 7.1. Una serie del tipo (7.1) convergente, se dice absolutamente convergente si ∞ X |z1 | + |z2 | + · · · + |zn | + · · · = |zn | n=1 es convergente 103 104 7. SERIES Si una serie es absolutamente convergente, entonces es convergente. Vamos a ver un ejemplo de esta definición en forma de teorema. Teorema 7.2 (de Abel). Sea la serie c0 + c1 z + · · · + cn z n + · · · = (7.2) ∞ X cn z n n=1 Si esta serie converge para algún valor zo , entonces la serie converge absolutamente para todos los valores z tales que |z| < |zo | P∞ Demostración 7.3. Por hipótesis se tiene que n=1 cn zon convege, por lo que |cn zon | < M es acotado para toda n y para alguna M ∈ ℜ. Sea r = |z/zo|, entonces n n n z |cn z | = |cn zo | < M rn zo por lo que, usando el criterio de comparación de las series, se tiene que si r < 1, la serie converge absolutamente. Veamos otros ejemplos. Ejemplo 7.4. Sea la serie S= ∞ X ein n2 n=1 Claramente podemos descomponer esta serie en su parte real y su parte imaginaria como ∞ X sin(n) cos(n) + i S= n2 n2 n=1 P∞ Primero observemos que el módulo de los términos de la serie es n=1 1/n2 y ésta serie es convergente, por lo que la serie S es absolutamente convergente. La dos series por separado, la parte real y la imaginaria, también son convergentes, por lo que S es convergente. Ejemplo 7.5. Vamos a determinar si la serie ∞ X S= z n cos(in) n=1 es convergente. Para hacer esto, primero observamos que cos(in) = cosh(n). Tomemos ahora un valor arbitrario P∞ para z, digamos zo y chequemos las condiciones para las cuales la serie n=1 zon cosh(n) converge. Para hacer esto, usamos el criterio del cociente, esto es: n+1 zo (cosh(n) cosh(1) + sinh(n) sinh(1)) z cosh(n + 1) = lim lim o n n→∞ n→∞ z cosh(n) cosh(n) o = = lim zo |cosh(1) + tanh(n) sinh(1)| n→∞ zo |cosh(1) + sinh(1)| = zo e por lo que la serie S converge si zo < 1/e Este valor determina una región para la cual la serie converge y se le llama radio de convergencia. Formalmente se puede definir como sigue: 2. SERIES DE TAYLOR EN EL PLANO COMPLEJO 105 Definición 7.6. El radio de convergencia de una serie del tipo (7.2) se define como cn lim n→∞ cn+1 Ejercicio 7.7. Determinar el radio de convergencia, cuando exista, de las siguientes P∞series: 1) n=1 z n ein 2) 3) 4) 5) P∞ n=1 P∞ n=1 P∞ n=1 P∞ n=1 π z n ei n n z 1−i z n in z n sin( iπ n) 2. Series de Taylor en el Plano Complejo Las series de Taylor en variable compleja son de primordial importancia para evaluar funciones. En esta sección vamos a definir las series de Taylor y Maclaurin y despues pasaremos a definir las series de Laurent, que se utilizaran para varios teoremas y despues para desarrolar metodos que nos seran muy útiles en la evaluación de integrales. Vamos a iniciar con el siguiente teorema. Teorema 7.8 (Series de Taylor). Sea f (z) una función analı́tica en una región dentro de una circunferencia γ0 , con centro en z0 y radio r0 . Para todo punto dentro de γ0 se tiene f (z) = f (z0 ) + f ′ (z0 )(z − z0 ) + f n (z0 ) f ′′ (z0 ) (z − z0 )2 + · · · + (z − z0 )n + · · · 2! n! Demostración 7.9. Sea z ∈ γ0 y r = |z − z0 |, i.e., r < r0 . Sea γ1 la circunferencia |z ′ − z0 | = r1 , tal que r < r1 < r0 . f (z) es analı́tica dentro y sobre de γ1 . De la integral de Cauchy, tenemos Z 1 f (z ′ )dz ′ f (z) = 2πi γ1 z ′ − z Pero z′ 1 1 1 1 · = ′ = ′ 0 −z (z − z0 ) − (z − z0 ) z − z0 1 − zz−z ′ −z 0 Ahora usamos la fórmula 1 + α + · · · + αn−1 = se obtiene αn − 1 α−1 1 αn = 1 + α + α2 + · · · + αn−1 + 1−α 1−α 0 Entonces, si hacemos α = zz−z ′ −z , obtenemos una fórmula equivalente 0 n−1 n ! 1 z − z0 z − z0 1 1 z − z0 1+ ′ + ···+ = ′ + 0 z′ − z z − z0 z − z0 z ′ − z0 z ′ − z0 1 − zz−z ′ −z 0 106 7. SERIES Asi que f (z ′ ) f (z ′ ) f (z ′ ) f (z ′ ) f (z ′ ) n−1 + (z−z )+· · ·+ (z−z ) + (z−z0 )n = 0 0 z′ − z z ′ − z0 (z ′ − z0 )2 (z ′ − z0 )n (z ′ − z)(z ′ − z0 )n Ahora dividimos esta identidad entre 2πi e integramos todos los términos usando el teorema de Cauchy, para obtener f (z) = f (z0 ) + f ′ (z0 )(z − z0 ) + · · · + f (n−1) (z0 ) (z − z0 )n−1 + Rn n! donde el residuo Rn esta dado por Rn = (z − z0 )n 2πi Z γ1 (z ′ f (z ′ )dz ′ − z)(z ′ − z0 )n y γ1 es la trayectoria cerrada definida anteriormente. Recordemos que |z − z0 | = r y |z ′ − z0 | = r1 y como |z ′ − z0 | ≤ |z ′ − z| + |z − z0 |, entonces |z ′ − z| ≥ |z ′ − z0 | − |z − z0 | = r1 − r. Esto es, si M es el máximo de |f (z ′ )| dentro de la curva γ1 , el residuo es menor que n n r 2πiM r1 r = r1 M |Rn | ≤ → 0 n→∞ 2πi (r1 − r)r1n r1 − r r1 ya que r < r1 . Esto implica que tomando la serie hasta infinito obtenemos el valor de la función en cualquier punto. Es decir, ∞ X f (n) (z − z0 )n f (z) = f (z0 ) + n! n−1 La convergencia de la serie, entonces, se da si la función f (z) es analı́tica dentro de γ0 Notación 7.10. Si la serie se toma para z0 = 0, la serie se llama serie de Maclaurin. 3. SERIES DE LAURENT 107 Ejemplo 7.11. Los ejemplos más tı́picos de series de Taylor y Maclurin son exp (z) = 1 + sin (z) = ∞ X ∞ X zn para |z| < ∞ n! n=1 (−1)n+1 n=1 cos (z) = 1 + ∞ X (−1)n n=1 sinh (z) = ∞ X z 2n−1 , para |z| < ∞ (2n − 1)! z 2n , para |z| < ∞ (2n)! z 2n−1 , para |z| < ∞ (2n − 1)! n=1 cosh (z) = 1 + ∞ X z 2n , para |z| < ∞ (2n)! n=1 ∞ X 1 = (−1)n z n , para |z| < 1 1 + z n=o ∞ 1 X = (−1)n (z − 1)n , para |z − 1| < 1 z n=o Veámos otro ejemplo. Ejemplo 7.12. Vamos a desarrollar la función 1 f (z) = 3−2z en series de Taylor en potencias de z − 3. Para hacer esto, vamos a transfomar la función f como sigue: 1 1 1 1 =− =− 2 3−2z 3 + 2(z − 3) 3 1 + 3 (z − 3) Ahora usamos la fórmula para el desarrollo de Taylor de 1/(1 + z) con |z| < 1, substituyendo z → 2/3(z − 3). Se obtiene: 2 23 1 22 1 1 − (z − 3) + 2 (z − 3)2 − 3 (z − 3)3 + · · · =− 3−2z 3 3 3 3 la cual es convergente para |z − 3| < 32 . 3. Series de Laurent Las series de Laurent son una forma de descomposición que se puede llevar a cabo en cualquier función analı́tica. Las series de Laurent contienen coeficientes que seran utilizados para la evaluación de integrales de una manera muy sencilla. Vamos a iniciar con el teorema de las series de Laurent. Teorema 7.13 (Series de Laurent). Sean γ1 y γ2 dos trayectorias circulares concentricas, con centro en z0 . Sea z ′ un punto en γ1 ◦ γ2 , tal que |z ′ − z0 | = r1 o |z ′ − z0 | = r2 , con r2 < r1 . f (z) es analı́tica sobre γ1 y γ2 y en la región entre ellas, como se muestra en la figura 1. Entonces f (z) puede representarse como una serie de potencias de orden positivo y negativo como 108 7. SERIES Figure 1. Trayectoria de integración utilizada en el teorema de series de Laurent. f (z) = ∞ X an (z − z0 )n + Z f (z ′ )dz ′ (z ′ − z0 )n+1 n=0 donde an bn = = 1 2πi 1 2πi γ1 Z γ2 f (z ′ )dz ′ (z ′ − z0 )−n+1 ∞ X bn (z − z0 )n n=1 n = 0, 1, · · · n = 1, 2, · · · Notación 7.14. A estas series se les llama series de Laurent. Demostración 7.15. La integral de Cauchy de f (z) es Z Z 1 1 f (z ′ )dz ′ f (z ′ )dz ′ f (z) = − ′ 2πi γ1 z − z 2πi γ2 z ′ − z ya que dentro de esta trayectoria, f (z) es analı́tica. Si como en el teorema anterior usamos la descomposición de z′ 1−z pero ahora en cada integral, obtenemos Z z − z0 (z − z0 )n−1 (z − z0 )n 1 1 + + · · · + + f (z ′ )dz ′ f (z) = 2πi γ1 z ′ − z0 (z ′ − z0 )2 (z ′ − z0 )n (z ′ − z0 )n (z ′ − z) Z 1 z ′ − z0 (z ′ − z0 )n−1 (z ′ − z0 )n 1 − + + · · · + + f (z ′ )dz ′ 2πi γ2 z − z0 (z − z0 )2 (z − z0 )n (z − z0 )n (z − z ′ ) donde, de la misma forma que en el teorema de Taylor, el residuo Z 1 (z − z0 )n f (z ′ )dz ′ ′ n (z ′ − z) 2πi (z − z ) 0 γ1 3. SERIES DE LAURENT 109 tiende a cero para n → ∞. Sólo nos falta ver el segundo residuo dado por Z ′ n 1 ′ ′ (z − z0 ) f (z )dz 2πi (z − z0 )n γ2 (z − z ′ ) pero por el mismo argumento que para el primer residuo, se puede ver que también tiede a cero para cuando n tiende a infinito. Por lo que se sigue el teorema. Ejercicio 7.16. Demuestre que el residuo de la serie Z (z ′ − z0 )n 1 f (z ′ )dz ′ n 2πi (z − z0 ) γ2 (z − z ′ ) tiende a cero para n → ∞ Para familiarizarnos con las series de Laurent, en lo que sigue vamos a dar algunos casos particulares de ellas ası́ como algunas aplicaciones y ejemplos. Las series de Laurent son muy generales, de hecho contienen a las de Taylor. Vamos a iniciar con una proposición diciendo justamente esto. Proposición 7.17. Si la función f es analı́tica dentro y fuera de una curva |z − z0 | = r0 , su serie de Laurent se reduce a f (z) = ∞ X an (z − z0 )n n=0 y converge a f (z) para todos los puntos interiores de la circunferencia |z − z0 | = r0 . Es claro que esta serie es la serie de Taylor de f (z) en potencias de (z − z0 ). Demostración 7.18. Si f es analı́tica dentro del circulo |z − z0 | = r0 , se sigue que bn = 0 en la serie de Laurent, para todo n. La serie se vuelve un desarrollo en serie para f totalmente análogo como en el caso del teorema de Taylor. Veamos algunos ejemplos representativos. Ejemplo 7.19. Tomemos la función f (z) = 1 z(1 + z 2 ) Esta función es singular para z = 0 y z = ± i. Primero vamos a encontrar su serie de Laurent dentro de una trayectoria cerrada con |z| < 1. Para este caso, podemos expander el término 1/(1 + z 2 ) en series como sigue 1 1 z 1 + z2 1 = 1 − z2 + z4 − z6 + · · · z ∞ 1 X (−1)n z 2n−1 para (0 < |z| < 1) = + z n=1 f (z) = Sin embargo, si ahora tomamos la región |z| > 1 esta expansión ya no es válida. Lo que se acostumbra entonces es buscar que se cumplan las condiciones para que la expansón pueda realizarse. Para esto hagamos lo siguiente, si |z| > 1, esto implica 110 7. SERIES que |1/z| < 1, ası́ que hagamos la expansión usando este hecho. Por ejemplo, podemos hacer ∞ ∞ X 1 1 X 1 1 n −2n = (−1) z = (−1)n 2n+3 para |z| > 1 f (z) = 3 −2 3 z 1+z z n=1 z n=0 ya que 1/z 2 < 1. Asi, la expresión en series de la función depende de la región en donde queremos obtener la serie. Ejemplo 7.20. Vamos a buscar la serie de Laurent de la función 1 f (z) = (1 − z 2 )2 dentro de la esfera 0 < |z − 1| < 2. Para hacer esto utilizaremos la fórmula de las series de Laurent en su forma intergral. Los coeficientes de la serie estan dados por: Z 1 dz ′ 1 (1−z ′ 2 )2 an = 2πi γ1 (z ′ − 1)n+1 Z dz ′ 1 = 2πi γ1 (z ′ − 1)n+3 (1 + z ′ )2 1 dn+2 1 = n+2 2 (n + 2)! dz (1 + z) z=1 (−1)n (n + 3)! 1 = (n + 2)! (1 + z)n+4 z=1 (−1)n (n + 3) = n = 0, 1, · · · 2n+4 donde γ1 es una trayectoria alrededor de z = 1, y hemos usado la fórmula (6.2) para las derivadas de la integral de Cauchy. De una manera semjante, vamos a evaluar la integral para los coeficientes bn , tenemos: Z 1 dz ′ 1 (1−z ′2 )2 bn = 2πi γ1 (z ′ − 1)−n+1 Z dz ′ 1 n = 1, 2, · · · = ′ −n+3 2πi γ1 (z − 1) (1 + z ′ )2 Para n = 1, 2, el resultado es el mismo que para an , pero con n = −2, −1. Para n ≥ 3, la función interior de la integral es analı́tica en z = 1 y la integral es cero. Entonces la serie será: ∞ X (−1)n (n + 3) 1 = (z − 1)n 2 2 n+4 (1 − z ) 2 n=−2 Ejercicio 7.21. Obtenga con detalle las expresiones de las series de las funciones siguientes 1) z 2 , dentro cualquier trayectoria cerrada. 2) cos(z)/(z + 1)2 , dentro de cı́rculo de radio 1/2 y centro en cero. 3) cos(z)/(z + 1)2 , dentro de un cı́rculo de radio 2 y centro en cero. 4. POLOS Y RESIDUOS 111 4) 2z+1 z+z 2 , dentro de un cı́rculo de radio 2 y centro en cero. 5) 2z+1 z+z 2 , dentro de un cı́rculo de radio 1/2 y centro en cero. 6) 4z 3 +z 2 −1 z(z 2 −1) , dentro de un cı́rculo de radio 2 y centro en cero. 7) 4z 3 +z 2 −1 z(z 2 −1) , dentro de un cı́rculo de radio 1/2 y centro en cero. 8) z 2 −2z−1 z+z 2 , donde γ es un cı́rculo de radio 1/2 y centro en 1. En algunas ocaciones conviene realizar algunos cambios a las funciones analı́ticas para poder encontrar su serie de Laurent. Por ejemplo, cuando una función analı́tica se pude descomponer en el producto de dos o mas funciones analı́ticas mas simples. En este caso es posible encotrar sus series utilizando la siguiente proposición. Proposición 7.22. La serie del producto de dos funciones analı́ticas converge hacia el producto de sus series para todo los puntos interiores a las dos circunferencias de convergencia. Demostración 7.23. Sean ∞ ∞ X X bn z n an z n y g(z) = f (z) = n=0 n=0 analı́ticas en una región R. Entonces, como f (z) y g(z) son analı́ticas en esa región, su serie de Maclaurin existe en la región. Se sigue que f (z)g(z) es analı́tica ahı́ y P n f (z)g(z) = ∞ con n=0 cn z = a0 b 0 + c0 = f (0)g(0) = a0 b0 (a0 b1 + a1 b0 )z+ c1 = f (0)g ′ (0) + f ′ (0)g(0) = a0 b1 + a1 b0 1 2 [f (0)g ′′ (0) + 2f ′ (a)f ′ (0) + f ′′ g(0)] (a0 b2 + a1 b1 + a2 b2 )z + c2 = 2! .. . = a b + a b + a b , etc. 0 2 1 1 2 0 4. Polos y Residuos Ya estamos listos para introducir el teorema más importante para resolver integrales complicadas. Como ya conocemos la serie de Laurent de una función, se pueden entonces conocer los coeficientes de la serie y con esto es posible conocer los polos y también los residuos, como veremos mas adelante. La idea es muy simple, los coeficientes de la serie son de hecho integrales de funciones, pero la serie se puede encontrar por otros métodos. Entonces, conocidos los coeficientes, podemos igualarlos a las integrales correspondientes. Estos coeficientes son los que se necesita para poder evaluar integrales. Vamos a iniciar esta sección con la siguiente definición. Definición 7.24. Sea f : C→ C analı́tica en todos los puntos de la región R, excepto en z0 ∈ R. Entonces z0 se llama punto singular aislado de f en R. Notación 7.25. Otra manera de enunciar esta definición es diciendo que z0 es un punto singular aislado, si en toda la región alrededor de Rz0 = {z ∈ R | 0 < |z − z0 | ≤ r1 }, f es analı́tica. 112 7. SERIES Otra concepto que usaremos mucho en lo que sigue es el concepto de residuo, que es simplemente el coeficiente principal de la serie de Laurent de una función, formalmente tenemos. Definición 7.26. Sea f : C ⇀ C analı́tica en R con el punto singular aislado z0 y sea ∞ X b2 b1 + + ··· f (z) = an (z − z0 )n + z − z (z − z0 )2 0 n=0 la serie de Laurent de f alrededor de z0 . Al coeficiente b1 de la serie se le llama residuo. Comentario 7.27. Observemos que b1 tiene la forma Z 1 b1 = f (z ′ )dz ′ , 2πi γ donde γ es cualquier curva cerrada que envuelva solo al punto singular aislado z0 de f , pero no a otro más. Comentario 7.28. Para calcular los residuos en ocaciones es muy útil la fórmula (7.3) b1 = lim (z − z0 ) f (z) z→z0 Para comprender mejor estas definiciones, vamos a ver algunos ejemplos. Ejemplo 7.29. Sea cos (z) z3 Alrededor de z0 = 0, la serie de Laurent de esta función es 1 11 1 1 cos(z) = 3− + z − z 3 + · · · para |z| < 0 z3 z 2 z 4! 6! El residuo será b1 = −1/2. Esto quiere decir que Z 1 1 cos(z) dz = − 3 2π i γ z 2 f (z) = donde γ es cualquier trayectoria cerrada que rodee a z0 = 0. Ejemplo 7.30. Vamos a encontrar los residuos de la función 5z − 2 f (z) = , z(z − 1) alrededor de |z| = 2. Dentro de |z| = 2 están las dos singularidades aisladas z = 0 y z = 1. Primero encontremos la serie de Laurent alrededor de z = 0, pero con |z| < 1. Para esto, simplemente separemos las series 5z − 2 5 2 = − z(z − 1) z − 1 z(z − 1) 1 2 = 5− z z−1 2 = −5 + (1 + z + z 2 + · · · ) z 2 − 3 − 3z − 3z 2 − · · · = z 4. POLOS Y RESIDUOS 113 Ası́, el residuo para 0 < |z| < 1 es K1 = 2. Ahora vamos a buscar la serie alrededor del otro polo z = 1. Para hacer esto, busquemos una descomposición de la función de tal forma que podamos expandirla en series alrededor de z = 1. Podemos hacer 5z − 2 1 3 5z − 5 + 3 1 = = 5+ z(z − 1) z−1 z z−1 z 3 [1 − (z − 1) + (z − 1)2 − · · · ] = 5+ z−1 3 = 5 − 5(z − 1) + 5(z − 1)2 + − 3 + 3(z − 1) − 3(z − 1)2 + · · · z−1 3 + 2 − 2(z − 1) + 2(z − 1)2 − · · · = z−1 para 0 < |z − 1| < 1, por lo que el residuo es K2 = 3. Ejercicio 7.31. Obtenga los residuos de las fuciones del ejercicio 7.21. El cálculo anterior es genérico en funciones analı́ticas y es otro de los resultados mas importantes de la variable compleja. Con este resultado ya podemos demostrar el teorema de los residuos. Teorema 7.32 (del Residuo). Sea f : C ⇀ C analı́tica en una región R, excepto en un número finito de puntos singulares aislados, sea γ una curva cerrada que rodea un número finito de esos puntos. Sean K1 , · · · , Kn los residuos de f alrededor de estos puntos. Entonces Z f (z)dz = 2πi(K1 + K2 + · · · + Kn ) γ Demostración 7.33. Tomemos la curva γ y la descomponemos en secciones que rodeen a los polos, como se muestra en la figura 2. Entonces se tiene Z Z Z Z f (z)dz = 2πi(K1 + K2 + · · · + Kn ) f (z)dz + · · · + f (z)dz + f (z)dz = γ γ1 γ2 γn Ejemplo 7.34. Vamos a evaluar la integral Z 5z − 2 dz z(z − 1) alrededor de |z| = 2 . Como vimos en el ejemplo 7.30, la serie de Laurent alrededor de z = 0 es 5z − 2 2 = − 3 − 3z − 3z 2 · · · z(z − 1) z y el residuo par 0 < |z| < 1 es K1 = 2. Para el otro residuo teniamos 5z − 2 3 = + 2 − 2(z − 1) + 2(z − 1)2 z(z − 1) z−1 para 0 < |z − 1| < 1, por lo que el residuo es K2 = 3. Entonces la integral sera Z 5z − 2 dz = 2πi(2 + 3) = 10πi z(z − 1) γ 114 7. SERIES Figure 2. Trayectoria de integración utilizada en el teorema del residuo. Para comprobar que esto es cierto, evaluemos la integral directamente Z Z Z 2 3 5z − 2 dz = dz + dz = 2πi(2 + 3) γ z γ z−1 γ z(z − 1) O hagamos el desarrollo en series de otra forma alternativa que abarque los dos polos, por ejemplo, para |z| > 1 podemos hacer 5z − 2 1 5z − 2 = z(z − 1) z2 1 − 1 z = (5z − 2) ∞ X n=0 1 z n+2 por lo que el residuo aqui es 5, ası́ que al final, con cualquiera de las formas de calcular la integral, obtenemos el mismo resultado, como debe ser. Ejercicio 7.35. Usando el teorema del residuo, calcular las integrales siguientes R cos(z) 1) γ (z+1) 2 dz 2) 3) 4) 5) 6) 7) R 2z+1 γ z+z 2 dz R γ R γ 4z 3 +z 2 −1 z(z 2 −1) dz z 2 −2z−1 z+z 2 dz R ez dz γ (z 2 +1)5 R cos(z) γ (z−1)5 dz R γ 3z 3 −z 2 +5z+1 dz (z 2 −1)2 4. POLOS Y RESIDUOS 115 En ocaciones hay funciones que tienen muchos polos en el mismo punto, o de otra manera, algún polo es multiple, es decir, el polo esta elevado a alguna potencia. Estos polos multiples reciben un nombre especial. Definición 7.36. Sea f : C ⇀ C analı́tica alrededor de z y sea. ∞ X ba bm b1 + + · · · + + an (z − z0 )n f (z) = z − z0 (z − z0 )2 (z − z0 )m n=0 la serie de Laurent de f (z) alrededor de z0 , tal que bm 6= 0 pero bm+1 , bm+2 · · · = 0. Entonces se dice que z0 es un polo de orden m. Si m = 1 , se dice que z0 es un polo simple. Podemos construir una fórmula análoga a la fórmula (7.3) para calcular los residuos de polos de orden arbitrario. Esta fórmula esta dada en la siguiente proposición. Proposición 7.37. Sea f : C ⇀ C univaluada, tal que, para algún m entero y positivo F (z) = (z − z0 )m f (z) es analı́tica en z0 y F (z0 ) 6= 0. Entonces f (z) tiene un polo de orden m en z0 . El residuo será F (m−1) (z0 )/(m − 1)! Demostración 7.38. Supongamos que f (z) tiene un polo de orden m, por lo que bm 6= 0, pero todos los bm+k = 0, con k > 1. Vamos a construir la función F (z) = (z − z0 )m f (z), se tiene ∞ X F (z) = b1 (z − z0 )m−1 + ba (z − z0 )m−2 + · · · + bm + an (z − z0 )n+m n=0 Claramente F (z0 ) = bm 6= 0. Si tomamos la m − 1 derivada de F (z), se obtiene que ∞ X dm−1 F (z) = (m − 1)!b + (n + m − 1)!an (z − z0 )n+1 1 dz m−1 n=0 Por lo que b1 = 1/(m − 1)!F (m−1) (z0 ) Comentario 7.39. Para calcular los polos de orden m en general es conveniente utilizar la fórmula (7.4) bm = lim z→z0 ((z − z0 )m f (z0 ))(m−1) (m − 1)! Usemos esta fórmula en un ejemplo sencillo. Ejemplo 7.40. Tomemos z 2 − 2z + 3 z−2 es claro que esta función se puede descomponer como f (z) = z 2 − 2z + 3 3 = +z z−2 z−2 Entonces esta expresion tiene un residuo K1 = 3 y un polo simple en z0 = 2. Para llegar al mismo resultado, ahora calculems F (z), obtenemos F (z = 2) = (z − 2)f (z)| = z 2 − 2z + 3 =3 z=2 z=2 116 7. SERIES como antes. Ejemplo 7.41. Encontremos los residuos de la función z2 (z 2 + 9)(z 2 + 4)2 Esta función tiene 2 polos simples en ±3i y dos dobles en ±2i. Para calcular los residuos usemos la fórmula (7.3) f (z) = z2 3 =− 2 2 z→3i (z + 3i)(z + 4) 50i b1 = lim y 3 z2 = 2 2 z→−3i (z − 3i)(z + 4) 50i Los polos dobles los calculamos usando la fórmula (7.4) ′ lim (z − 2i)2 f (z) z→2i ′ 13i z2 =− = (z 2 + 9)(z + 2i) 200 análogamente ′ lim (z − 2i)2 f (z) z→−2i ′ 13i z2 = = (z 2 + 9)(z − 2i) 200 b1 = lim La fórmula para obtener el residuo también puede ser usada para otros fines. Por ejemplo, vamos a usarla para evaluar el lı́mite de la función cosh(z) sinh(z) g(z) = 2 −2 z2 z3 en cero. Ejemplo 7.42. Tomemos la serie sinh (z) z4 Su función F (z) correspondiente debe ser f (z) = F (z) = z m sinh (z) z4 Si m ≥ 4, F (0) = 0. Pero si m = 3, sinh(z) F (z = 0) = =1 z z=0 Entonces 1 d2 F (z = 0) 1 = 2 2! dz 2 sinh(z) sinh(z) cosh(z) + 2 −2 z z2 z3 z=0 Que es justamente 1/2!F ′′ (0) = 1/2 limz→0 (sinh(z)/z − g(z)), que es el lı́mite que buscamos. Para saber cual es su valor, vamos a evaluar la serie de Laurent de la función f (z). Se obtiene f (z) = 1 11 1 1 sinh (z) = 3+ + z + z3 + · · · z4 z 3! z 5! 7! 4. POLOS Y RESIDUOS 117 Por lo que sinh (z) /z 4 tiene un residuo igual a 1/6 y un polo triple en z = 0. Usando este resultado podemos evaluar la función 1 ′′ sinh(z) 1 1 sinh(z) cosh(z) + 2 = F (0) = −2 2 3 2! 2 z z z 6 z=0 Como limz→0 sinh(z)/z−g(z) = 1/3 y limz→0 sinh(z)/z = 1, se tiene que limz→0 g(z) = 2/3 Como ya habrán notado, las singularidades de algúnas funciones tienen la caracteristica de poder ser eliminadas transfomando la función original en otra que se convierte en analı́tica. A estas sigularidades se les llama removibles, porque de hecho se pueden evitar, por ejemplo, multiplicando la función por algún factor, como es el caso de la definición de la función F . Formalmente estas sigularidades se definen como sigue. Definición 7.43. Sea F1 : C ⇀ C analı́tica en una región R, excepto para z = z0 ∈ C. Sea F (z) = F1 (z) para toda z 6= z0 y F (z0 ) = k, con F : C → C. Si F (z) es analı́tica, se dice que z0 es una singularidad removible o evitable. Para aclarar esta definición, veamos algunos ejemplos y ejercicios. Ejemplo 7.44. Sea f : C ⇀ C analı́tica en R pero con un polo z = z0 de orden m. Si definimos F = (z − z0 )m f (z), esta nueva función es analı́tica y tiene una singularidad en z = z0 que es removible. Ejemplo 7.45. Sea f (z) = 1 1 = 2 z (ez − 1) z 1+ z 2! 1 2 + z3! + · · · Esta función es singular en z = 0 y tiene un polo doble. De hecho 1 1 1 = 2 (1 − z + · · · ) − 1) z 2 z (ez El residuo de f (z) es K1 = − 12 . Sin embargo, la función F = z 2 f (z) es analı́tica en z = 0, por lo que z = 0 es un polo removible de F . Ejercicio 7.46. Encontrar los polos y residuos de las siguientes funciones. cos(z) 1) (z+1) 2 2) 2z+1 z+z 2 3) 4z 3 +z 2 −1 z(z 2 −1) 4) z 2 −2z−1 z+z 2 5) ez (z 2 +1)5 6) cos(z) (z−1)5 7) 3z 3 −z 2 +5z+1 (z 2 −1)2 118 7. SERIES 5. Evaluación de Integrales Una de las aplicaciones directas de los resultados anteriores es la posibilidad de desarrollar algunos métodos para evaluar integrales que son muy complicadas. Para explicar estos métodos, lo mas conveniente es dar ejemplos de como se utilizan éstos. En esta sección veremos algunos ejemplos de evaluación de integrales usando los resultados de variable compleja. 5.1. Integrales de la forma. Z ∞ −∞ p(x) dx q(x) Ejemplo 7.47. Vamos a encontrar la integral Z Z ∞ 1 ∞ dx dx = x2 + 1 2 −∞ x2 + 1 0 Tomemos la función f (z) = z21+1 , tienen dos polos simples en +i y −i. Sea γ una curva cerrada, pasando por el eje real y haciendo un semicı́rculo, como en la figura 3. Se tiene Figure 3. Curva cerrada, pasando por el eje real y haciendo un semicı́rculo que contiene al polo simple +i. Z R −R dx + x2 + 1 Z γR dz z2 + 1 = = = Z dz 2+1 z γ Z Z i dz i dz − 2(z + i) 2(z − i) γ γ 1 2πi 0 − i = π 2 5. EVALUACIÓN DE INTEGRALES 119 2 donde 2 γR es2 el semicı́rculo superior. γR es tal que |z| = R y como z + 1 ≥ z − 1 = R − 1 se tiene Z Z πR R→∞ |dz| dz → 0 = 2 ≤ 2 + 1 2−1 z R R −1 γR γR ası́ que Z ∞ −∞ dx =π x2 + 1 Ejemplo 7.48. Evaluar Z ∞ Z 1 ∞ x2 dx x2 dx = (x2 + 9)(x2 + 4)2 2 −∞ (x2 + 9)(x2 + 4)2 0 Consideremos a la función f (z) = z2 (z 2 + 9)(z 2 + 4)2 Como vimos en el ejercicio 7.41, esta función tiene 2 polos simples en ±3i y dos 3i 3i 13i dobles en ±2i, cuyos residuos estan dado por K3i = 50 , K−3i = − 50 , K2i = − 200 13i y K−2i = 200 . Entonces la integral sobre el contorno se toma como en el ejemplo anterior, será Z Z R dz dz + 2 + 9)(z 2 + 4)2 2 + 9)(z 2 + 4)2 (z (z γR −R Z dz = 2 2 2 γ (z + 9)(z + 4) 3 i 13 i π − = = 2πi(K1 + K3 ) = 2πi 50 200 100 Usando los mismos argumentos del ejemplo anterior, se llega a Z ∞ π dx = 2 2 2 (x + 9)(x + 4) 200 0 En general, si f (z) es de la forma f (z) = p(z) q(z) donde p(z) y q(z) son ambas analı́ticas, pero f (z) tiene un polo simple en z = z0 , con f (z0 ) 6= 0, esto implica que q(z0 ) = 0, pero q ′ (z0 ) 6= 0. Podemos escribir. f (z) = p(z0 ) + p′ (z0 )(z − z0 ) + p′′ (z0 )(z ′ − z0 )2 /2! + · · · q(z0 ) + q ′ (z0 )(z − z0 ) + q ′′ (z0 )(z − z0 )2 /2! + · · · de donde se sigue que F (z) = (z − z0 )f (z) = p(z0 ) + p′ (z0 )(z − z0 ) + · · · q ′ (z0 ) + q ′′ (z0 )(z − z0 )/2! + · · · es analı́tica. Del polo simple podemos calcular el residuo. Si observamos que b1 = lim F (z) = lim (z − z0 )f (z) = z→z0 z→z0 p(z0 ) q ′ (z0 ) 120 7. SERIES Análogamente, si el polo es doble q(z0 ) = q ′ (z0 ) = 0 pero q ′′ (z0 ) 6= 0 y b2 = lim z→z0 2 ((z − z0 )2 f (z))′ (3p′ (z0 )q ′′ (z0 ) − p(z0 )q ′′′ (z0 )) = ′′ 2! 3q (z0 )2 Ejercicio 7.49. Evalúen las siguientes integrales R∞ dx 3 1) −∞ (1+x 2 )3 = 8 π 2) 3) 4) 5) R∞ x2 dx −∞ (x2 +4x+13)2 R∞ dx −∞ 1+x6 = 32 π x2 dx −∞ 1+x6 = 31 π R∞ R∞ −∞ sin(x) dx 1+x6 = 13 54 π =0 5.2. Integrales de la forma. Z ∞ f (x) exp (ixh) dx −∞ Estas integrales son de suma importancia porque son las transformadas de Fourier de la función f (x). Estas se pueden resolver de la siguiente forma Lema 7.50. Sea f (x) una función tal que lim f (x) = 0 y h > 0. Entonces la x→±∞ integral Z ∞ f (x) exp (ihx) dx = 2πi [ residuos del plano medio superior] −∞ Demostración 7.51. Consideremos la integral a lo largo de la curva γ dada en la figura 3. Claramente Z R Z Z f (z) exp (ihz) dz f (z) exp (ihz) dz = f (z) exp (ihz) dz + γ −R γR Vamos a demostrar que la segunda integral del lado derecho de la identidad se anula cuando R → ∞. Ahora bien, como lim f (x) = 0, esto implica que para x→±∞ R >> 1 existe siempre un número real M > 0 tal que |f (z)| < M . Si hacemos z = Reiθ = R [cos (θ) + i sin (θ)], se tiene que para R >> 1 Z Z π iθ In = f (z) exp (ihz) dz ≤ M exp (hR [i cos (θ) − sin (θ)]) iRe dθ γR 0 Z π Z π iθ ≤ MR exp (hR i [cos (θ) + θ]) dθ + exp (−hR sin (θ)) e dθ 0 0 La primera es la integral de una función periódica y por tanto es finita y positiva, digamos igual a I0 , entonces podemos escribir Z π In = M R I0 + exp (−hR sin (θ)) eiθ dθ 0 Z π/2 ≤ 2 MR exp (−hR sin (θ)) dθ 0 5. EVALUACIÓN DE INTEGRALES 121 donde hemos usado la simetria de sin(θ) entre 0 ≤ θ ≤ π/2. Pero en este intervalo, la función sin(θ) ≥ 2 θ/π, entonces podemos escribir: Z π/2 θ dθ In ≤ 2 M R exp −2 hR π 0 = (7.5) −M π e−hR − 1 → 0 R→∞ h dado que h > 0 y que M → 0 cuando R → ∞. Ejemplo 7.52. Vamos a evaluar la integral Z ∞ exp (ixT ) dx 2 2 −∞ k − x Consideremos la integral Z γ exp (izT ) dz k2 − z 2 Para T > 0, γ es la trayectoria de la figura 4. Se tiene que Figure 4. Curva cerrada, pasando por el eje real y haciendo un semicı́rculo que contienen los dos polos simples en +k y −k. Z γ exp (izT ) dz k2 − z 2 Z Z 1 1 exp (izT ) exp (izT ) dz − dz 2k γ z + k 2k γ z − k 1 = [exp (−ikT ) − exp (ikT )] 2k i = − sin (kT ) k = 122 7. SERIES Para T < 0, tomemos la misma trayectoria pero ahora con el simicirculo hacia abajo, para que la integral (7.5) se integre de 0 a −π/2. Solo que en este caso los polos quedan fuera de la trayectoria y por tanto la integral se anula, por lo que i Z ∞ exp (ixT ) − k sin (kT ) para T > 0 dx = 2 − x2 0 para T < 0 k −∞ Ejemplo 7.53. Vamos a evaluar la integral Z ∞ exp (i (xR + yT )) dx dy y − ix0 x2 −∞ Podemos llevar a cabo la integración parte por parte. Primero integremos con respecto a y. La integral que vamos a resolver se ve entonces como: Z ∞ Z ∞ exp (iyT ) dy exp (ixR) dx −∞ −∞ y − z0 donde z0 = ix0 x2 . Observemos que esta integral se puede llevar a cabo usando una trayectoria como la del ejercicio anterior, donde solo se tiene el polo y = z0 . Ahora bien, si T > 0, la trayectoria cubre el polo z0 , pero si T < 0 no lo cubre. Por lo que se obtiene que Z ∞ Z ∞ Z ∞ exp (iyT ) dy = exp ixR − x0 x2 T dx exp (ixR) dx −∞ −∞ −∞ y − z0 para T > 0, y la integral es cero para T < 0. Queda resolver la integral anterior, llamada la integral de Gauss. Para evaluarla, primero completemos el cuadrado en la exponencial, se obtiene Z ∞ 2 2 e−R /4b e−bz dz −∞ donde hemos llamado b = x0 T y a z = x − R/2b. Esta integral puede evaluarse usando elqsiguiente método. Si llamamos la integral Ip , lo que vamos a hacer es integrar Ip2 , de la siguiente forma: Ip = e −R2 /4b Z ∞ e −bz 2 dz = e −R2 /4b −∞ = = = 2 e−R e /4b −R2 /4b 2 e−R /4b Z Z Z r ∞ −∞ ∞ −∞ 2π 0 e −bx2 Z Z π exp b 12 Z dx e−b(x 2 +y 2 ) −∞ 0 e −by 2 −∞ ∞ ∞ ∞ e −br 2 dx dy 21 rdrdθ r −R2 π 4x0 T x0 T 21 dy 12 si T > 0, y cero si T < 0. Observese que aqui no utilizamos el teorema del residuo. Para evaluar la última integral, claramente se utilizaron coordenadas polares. Encontrar los polos y residuos de las siguientes funciones. Ejercicio 7.54. Evalúen las siguientes integrales R ∞ cos(x) iT x dx 1) −∞ (x+1) 2e 5. EVALUACIÓN DE INTEGRALES 2) 3) 4) R∞ 123 ex eiT x dx −∞ (x2 +1)5 R∞ −∞ R∞ 3x3 −x2 +5x+1 iT x e dx (x2 −1)2 cos(x) iT x dx −∞ (x−1)5 e 5.3. Integrales de la forma. Z 2π F (sin (θ) , cos (θ))dθ 0 Para este tipo de integrales, la transformación z = eiθ , dz = izdθ es siempre 1 1 −1 y cos (θ) = 2i z − z −1 . Este método es muy útil, ya que sin (θ) = 2i z − z genérico y nosotros lo vamos a mostrar con un ejemplo. Ejemplo 7.55. Vamos a evaluar la integral Z 2π dθ (7.6) I= 5 + sin (θ) 0 4 efectuando la transfomación para este timpo de integrales, se obtiene: Z dz I = 1 5 −1 ) γ iz 4 + 2i (z − z Z 4dz = 2 + 5iz − 2 2z γ Z 2dz = (z + 2i)(z + 21 i) γ 8 = π 3 donde la integración se hizo a lo largo de la curva γ dada por |z| = 1, como en la figura 5. Ejercicio 7.56. Evalúen las integrales R 2π 1.- 0 (cos(θ) sin(θ))2 dθ 2.- 3.4.5.- R 2π 0 R 2π 0 R 2π 0 R 2π 0 cos(θ) sin2 (θ) dθ dθ 1+2 sin2 (θ) dθ 3 cos2 (θ)+2 sin2 (θ) i cos(θ)dθ (cos2 (θ)+2 i sin(θ) cos(θ)−sin2 (θ)+1)3 − R 2π 0 sin(θ)dθ (cos2 (θ)+2 i sin(θ) cos(θ)−sin2 (θ)+1)3 124 7. SERIES Figure 5. Curva cerrada, pasando por el eje real y haciendo un cı́rculo que contienen al polo simple z = −i/2. CHAPTER 8 GEOMETRIA DEL PLANO COMPLEJO En este capı́tulo veremos brevemente una parte de la geometrı́a del plano complejo. Nos concentraremos únicamente a dos aspectos, las transformaciones conformes y las superficies de Riemann. Vamos a iniciar con las transformaciones conformes. 1. Transformaciones Conformes Las transformaciones conformes se llevan a cabo para poder simplificar un problema. Son muy útiles en la solución de ecuaciones diferenciales, para resolver problemas de fı́sica, quı́mica, ingenierı́a y matemáticas en general, entre otros. Su definición es la siguiente: Definición 8.1. Una transformación conforme en una región R ⊂ C es una función Z : C → C tal que Z es analı́tica y dZ 6= 0 dz en R. Lo interesante de la función Z es que transforma una región del dominio de ella, en otro región diferente, es decir, a cada punto z = x + iy del plano complejo (x, y), le asocia otro punto Z = u(x, y) + iv(x, y) del plano complejo (u, v). Para ver esto, vamos algunos ejemplos. Ejemplo 8.2. Traslaciones. El ejmplo más simple es sin duda una traslación conforme. Sea Z(z) = Z(x, y) = z + z0 = x + x0 + i(y + y0 ). Entonces, un punto x + iy en el plano complejo, se ve como otro punto x + x0 + i(y + y0 ) en el plano conforme, como en la figura 1 Figure 1. La transformación conforme Z(z) = z + z0 , la cual conrresponde a una traslación. 125 126 8. GEOMETRIA DEL PLANO COMPLEJO A cada punto z = x + iy se le asocia un punto u = x + x0 y v = y + y0 . Por ejemplo, una linea en el plano complejo y = mx + b, se transforma en v − y0 = m(u − x0 ) + b, la cual es una linea paralela a la anterior desplazada, como en la figura 1 Ejemplo 8.3. Rotaciones. Otro ejemplo interesante es la rotación conforme. Ésta está definida como Z(z) = z z0 . Para visualizar la transformación, es conveniente escribir ésta en su forma polar. Si z = reiθ , entonces Z(z) = r r0 ei(θ+θ0 ) . Es decir, el punto z = reiθ fue trasladado una distancia r → r r0 y rotado de θ → θ + θ0 . Vean la figura 2. Por ejemplo, la rotación z0 = eiθ0 de un Figure 2. La transformación conforme Z(z) = z z0 , la cual conrresponde a una rotación del punto z. cı́rculo x2 + y 2 = z z̄ = r2 en el plano complejo, deja al cı́rculo invariante, ya que si lo vemos en la representación polar, este queda como Z Z̄ = zz0 z̄ z̄0 = r2 . Ejemplo 8.4. Inversiones. Tal vez el ejemplo más interesante sea el de la inversión conforme. La inversión esta definida como Z(z) = 1/z y para visulizarla primero conviene escribir el nḿero z en su forma polar z = reiθ . Entonces, la inversión se ve como Z(z) = r1 e−iθ , es decir, la inversión lleva al número z al lado opuesto del plano complejo. Otra forma conveniente de visualizar una inversión es utilizando su forma Z(x, y) = 1/(x + iy) = (x − iy)/(x2 + y 2 ). De aquı́ se ve que una inversión nos lleva al complejo conjugado del número, dividio entre el módulo al cuadrado. Vamos a escribir la forma explicita de la inversión como y x , v=− 2 (8.1) u= 2 x + y2 x + y2 De donde podemos escribir u v x= 2 , y=− 2 u + v2 u + v2 Por ejemplo, una lı́nea recta que pasa por el orı́gen y = mx, tras una inversión v u se verı́a como esa lı́nea recta pero con la pendiente invertida − u2 +v 2 = m u2 +v 2 , es decir v = −mu. Una lı́nea paralela al eje x, y = c, se verı́a como: v + u2 + v 2 = 0 c que se puede escribir de otra forma como 1 1 u2 + (v + )2 = 2c (2c)2 1. TRANSFORMACIONES CONFORMES 127 el cual es un cı́rculo centrado en (0, −1/(2c)), de radio 1/(2c). Es decir, una recta paralela al eje x, bajo una inversión es un cı́rculo. En la figura 3 se puede ver el cı́rculo u2 + (v + 1/2)2 = 1/4, el cual es la inversión de la recta y = 1. En general, una recta y = mx + b se verı́a tras una inversión como: v = −m u − b(u2 + v 2 ) Esta última expresión se puede reescribir como 2 m 2 1 + m2 1 + u+ = (8.2) v+ 2b 2b 4b2 para b√6= 0, el cual es claramente un cı́rculo con centro en −1/(2b)(m, 1) y con radio 1 + m2 /(2b), en el plano (u, v). En la figura 3 se puede ver el cı́rculo (u + 1/2)2 + (v + 1/2)2 = 1/2, el cual es la inversión de la recta y = x + 1. Concluimos que la inversión de una recta que pasa por el origen es siempre otra recta con pendiente invertida o un cı́rculo, si la recta no pasa por el origen. Figure 3. La transformación conforme Z(z) = 1/z, de la recta y = x + 1, en el plano (u, v). De la misma manera podemos visualizar un cı́rculo después de una inversión. Sea el cı́rculo z z̄ = x2 +y 2 = r2 , con r constante. Usando las expresiones anteriores, el cı́rculo se ve como: u2 v2 x2 + y 2 = 2 + 2 = r2 2 2 (u + v ) (u + v 2 )2 de donde se sigue que: 1 r2 Es decir, se obtiene el mismo cı́rculo, pero con un radio invertido. u2 + v 2 = Vamos a observar una caracteristica muy interesante de las transformaciones conformes. Veamos primero el ejemplo 8.2 de las traslaciones conformes. Al trasladar una recta del plano (x, y) al plano (u, v), la pendiente de las rectas no se altera, ası́ que si dos curvas en el plano (x, y) se cruzan en un punto, el angulo que forman entre ellas se conservará en el plano (u, v). Esta afirmación no es tan 128 8. GEOMETRIA DEL PLANO COMPLEJO evidente en el ejemplo 8.4 de las inversiones conformes. Sin embargo, sean dos rectas que se cruzan en el plano (x, y), por ejemplo y = m1 x + b1 y y = m2 x + b2 y supongamos que se cruzan en el punto (x0 , y0 ). En este punto se tiene que: (8.3) x0 = y0 = b2 − b1 m1 − m2 m1 b 2 − m2 b 1 m1 − m2 Tomemos la inversión conforme de las rectas como en el ejemplo 8.4. Con estos valores, también podemos escribir el punto de cruce (u0 , v0 ) de los cı́rculos correspondientes en el plano (u, v), usando la fórmula (8.1) y los valores (8.3). En el plano (u, v), la pendiente M de la recta tangente en cualquier punto (u, v) de los cı́culos correspondietes a las rectas en (x, y) se obtiene derivando (8.2), es decir: (8.4) M= u+ dv =− du v+ m 2b 1 2b En el punto (u0 , v0 ), el ciı́rculo 1 tendrá una recta tangente con pendiente M1 y el cı́rculo 2, una recta tangente con pendiente M2 , dadas por (8.4), con sus valores correspondientes de m1 , b1 , m2 y b2 . Ahora calculemos los angulos que forman dichas rectas. Lo mas simple es calcular la tangente de su diferencia, es decir: (8.5) tan(θ2 − θ1 ) = M2 − M1 1 + M1 M2 donde θ1 es el angulo que forma la recta tangente al cı́rculo 1 en el punto (u0 , v0 ) con el eje u y θ2 es el correspondiente para el cı́rculo 2. Ahora substituimos los valores de M1 y M2 en terminos de las contantes de las rectas y (despues de mucha álgebra) se obtiene: tan(θ2 − θ1 ) = m1 − m2 = tan(α2 − α1 ) 1 + m1 m2 donde ahora α1 es el angulo que forma la recta 1 con el eje x y α2 , el que forma la recta 2. Es decir, de nuevo la diferencia entre los ángulos se conserva. En la figura 3 se puede ver como las rectas y = x + 1 y y = 1 se cruzan en (0, 1). Los cı́rculos correspondientes se cruzan en el plano (u, v) en el punto (0, −1). En este punto las rectas tangentes a cada cı́rculo forman un ángulo igual que las rectas correspondientes en el plano (x, y). Lo que vamos a probar ahora es que esta propiedad es general en las transformaciones conformes. Teorema 8.5. Sean α1 y α2 los angulos de las rectas tangentes a dos curvas C1 y C2 respectivamente en un punto (x0 , y0 ) donde estas curvas se cruzan. Sean Z : C → C una transformación conforme y C1′ y C2′ las curvas transformadas bajo Z de C1 y C2 , respectivamente. Sea θ1 el angulo con respecto a u de la curva tangente de C1′ en el punto Z(x0 , y0 ) = (u0 , v0 ) y θ2 el angulos de la curva tangente de C2′ . Entonces se cumple que θ1 − θ2 = α1 − α2 Demostración 8.6. Por definición, la transformación conforme Z cumple con que ∆Z dZ = lim = reiφ z 6= 0 0 ∆z→0 ∆z z dz z0 0 1. TRANSFORMACIONES CONFORMES 129 Por supuesto el ángulo φ depende de z, pero para un punto fijo z0 éste ángulo es una constante. En su forma polar, para que dos números complejos sean iguales, su modulos y sus argumentos deben coincidir. Entonces, los argumentos de la ecuación anterior son: ∆Z ∆Z = lim arg φ = arg lim ∆z→0 ∆z→0 ∆z ∆z = lim arg ∆Z − lim arg ∆z ∆z→0 = ∆z→0 θ−α como se muestra en la figura 4. Supongamos que tenemos las dos curvas, C1 y C2 en el plano (x, y) y se cruzan en el punto z0 = x0 + iy0 . En el plano (u, v) estas curvas son C1′ y C2′ . Para la curva 1 se tiene que φ = θ1 − α1 y para la curva 2 φ = θ2 − α2 , de tal forma que: θ1 − θ2 = α1 − α2 Figure 4. Los argumentos de la transformación conforme Z, en el lı́mite cuando ∆z va a cero. Un ejemplo muy interesante de una transformación conforme no lineal es el siguiente: Ejemplo 8.7. Sea Z = z 2 una transformación conforme. Esta transformación esta dada por: u = x2 − y 2 , v = 2xy A esta transformación se le conoce como coordenadas hiporbólicas, ya que las lineas u = x2 − y 2 =constante y v = 2xy =constante, forman hipérbolas en el plano (x, y). Lo interesante del teorema anterior es que como la transformación lleva hipérbolas del plano (x, y) a lineas perpendiculares al plano (u, v), como se ve en la figura 5, las hipérbolas en el plano (x, y) forman un sistema otrogonal de coordenadas, por eso el nombre de coordenadas hiperbólicas. Existen muchos mas ejemplos de este tipo de transformaciones, pero es mejor que el lector las estudie en forma de ejercicios. 130 8. GEOMETRIA DEL PLANO COMPLEJO Figure 5. La transformación conforme Z = z 2 , la cual transforma coordenadas hiperbólicas en coordenadas castesianas. Ejercicio 8.8. Consideremos las sucesión de transformaciones conformes 1.- z1 = z + dc 2.- z2 = c2 z1 3.- z3 = z12 4.- z4 = (bc − ad)z3 5.- z5 = ac + z4 Tomen sucesivemente estas transformaciones y encuentren el resultado final y la condición para que esta última sea una transformación conforme. Sean el cı́rculo x2 + (y − 1)2 = 1 y la recta y = x + 1. Encuentren las curvas resultantes despues de la quinta transformacón sucesiva de estas dos curvas. A esta transformación se le llama la transformación homográfica. Ejercicio 8.9. Examinen la transformación conforme Z = 2 arctan(ia z) Den sus transformaciones del plano (x, y) al plano (u, v) y viceversa explı́citamente. Encuentren la tranformación del cı́rculo x2 + (y − 1)2 = 1 y de la recta y = x + 1 bajo esta transformación. 2. Superficies de Riemann En la sección anterior vimos como la función f : C → C, tal que f (z) = z 2 transforma puntos de un plano complejo a otro. En su forma polar, esta función también se puede escribir como f (z = reiθ ) = r2 e2iθ . En particular, podemos tomar un cı́rculo en el dominio de la función y ver como este se mapea en el codominio. Claramente, una vuelta en el dominio implicará una doble vuelta en el cı́rculo del codominio, alrededor de un cı́rculo que tiene el cuadrado del radio del correspondiente en el dominio. En la sección 4 vimos que el inverso de esta función 2. SUPERFICIES DE RIEMANN 131 en el plano real,√no es una función porque no es univaluada, es decir f : ℜ → ℜ, tal que f (x) = x tiene dos valores para cada x en el dominio. En esta sección veremos de una manera intuitiva como en variable compleja es posible hacer que este tipo de mapeos se puedan ver como funciones, definiendo un dominio adecuado llamado superficie de Riemann. En realidad, una superficie de Riemann es una variedad compleja, pero nosotros veremos variedades hasta la sección 1. Por ahora lo que haremos es ver la idea funcional de lo que es una superficie de Riemann. Para hacer esto veremos un par de ejmplos. Ejemplo 8.10. Vamos a iniciar con la función (relación) f : C → C, tal que √ 1 √ f (z) = z. En su forma polar, esta función f (reiθ ) = re 2 θ recorre la mitad de un cı́rculo en el plano (u, v), como se ve en la figura 6. Vamos a identificar Figure 6. La transformación conforme Z = mitad del plano (u, v). √ z, recorre solo la el eje positivo de los reales ℜ+ con otro eje positivo de la parte real de otro plano complejo, como se ve en la figura 7, de tal forma que un cı́rculo iniciando en el punto 0, continúa hasta el punto 1 de ese plano, después sigue en el punto 1 del otro plano y sigue hasta el punto 2 de ese plano y de ahi pasa al punto 2 del primer plano complejo, hasta completar una vuelta en los dos plano. A estos dos planos juntos se le llama √ una superficie de Riemannm R, de tal forma que la función R → C, con f (z) = z ahora es una función univaluada y biyectiva. Ejemplo 8.11. Otro ejemplo similar es la función f : C → C donde f (z) = z 1/3 . En este caso dos planos identificados como en el caso anterior no serán suficiente. Para esta función se necesitan tres planos, como los de la figura 8. En esta superficie de Riemann iniciamos en el punto 0, continuamos hasta e punto 1 de este plano y de ahı́ pasamos al punto 1 del segundo plano, seguimos en este plano hasta el punto dos y continuamos en el punto dos del tercer plano hasta al punto tres, que nos conduce de nuevo al punto 3 del primer plano complejo. Si el dominio de la función f es esta superficie de Riemann R, es decir, f : R → C, la función f (z) = z 1/3 es biyectiva. Ejemplo 8.12. Finalmente vamos a anlizar la función ln(z). En este caso tenemos que ln(reiθ ) = ln(r) + iθ. Esta función (relación) tiene un número infinito de puntos de multivaluación, ya que todos los valores de θ = θ + 2kπ, con k = 0, ±1, ±2, · · · , corresponden al mismo punto z = reiθ = reiθ+i2kπ . Para este caso 132 8. GEOMETRIA DEL PLANO COMPLEJO Figure 7. Dos planos complejos (x, y), en donde identificamos sus partes reales positivas. Esta unión de espacios forma una superficie de Riemann. Figure 8. Lo mismo que en la figura 7, pero ahora con tres planos. vamos a necesitar una superficie de Riemann con un número infinito de planos identificados como en los casos anteriores. Part 4 ANALISIS CHAPTER 9 ESPACIOS MÉTRICOS Y UNITARIOS 1. Estructuras sobre ℜ y ℜn En la parte de Álgebra estudiamos las estructuras algebráicas sobre ℜ y ℜn . En particular, sabemos que ℜ es un campo ordenado donde la estructura algebraica de campo nos da las reglas de cálculo de la adición, substracción, multiplicación y división, las cuales se relacionan con el orden natural ≤ de los números reales. Este orden es tanto un orden parcial como también lineal, y proporciona conceptos como los de máximo, mı́nimo, cotas, supremo e infimo de subconjuntos, conceptos de suma importancia en el análisis. También vimos que ℜn es un espacio vectorial sobre ℜ , cuyas operaciones (adición entre vectores y multiplicación de escalares con vectores) se basan enteramente en operaciones del campo ℜ. Conocemos conceptos como subespacio vectorial, independencia lineal, cerradura lineal, base, dimensión, y homomorfismos (mapeos lineales) entre espacios vectoriales, los cuales debemos tener presentes para poder estudiar los temas del análisis presentados en este capı́tulo. Sin embargo, ℜ y ℜn tienen más estructuras, las cuales, normalmente en un contexto práctico o de aplicación, supondremos nosotros aquı́ que el lector ha conocido ya antes. Las siguientes secciones dentro de esta introducción recuerdan estos conceptos dentro de nuestro conocimiento y lo ordena en un contexto nuevo. 1.1. ℜn como espacio vectorial normado. Recordamos que ℜ es un campo ordenado y supondremos en este texto que la definición formal del valor absoluto es un concepto muy sencillo y conocido. Definición 9.1. Para x ∈ ℜ, se define el valor absoluto de x por |x| = max{x, −x}. Vemos que |x| es un numero real no negativo, pues obviamente x, si x ≥ 0, |x| = max{x, −x} = , −x, si x < 0 ası́ que, |·| es un mapeo de ℜ en ℜ+ . Observamos que x ∈ ℜ es un punto sobre la lı́nea real, o, equivalentemente, un vector sobre la lı́nea real, apuntando desde el origen 0 hacia el punto x. Es evidente que |x| es la longitud de este vector o la distancia (igual a la longitud del segmento de lı́nea) entre 0 y x. Aplicando la definición del valor absoluto y propiedades del máximo, es fácil deducir las siguientes propiedades: Lema 9.2. Para x, y ∈ ℜ: 1) |x| = 0 sı́ y sólo sı́ x = 0. 2) |−x| = |x| 3) |xy| = |x| |y| 4) |x + y| ≤ |x| + |y| 135 136 9. ESPACIOS MÉTRICOS Y UNITARIOS 5) − |x| ≤ x ≤ |x| Comentario 9.3. Aplicando inducción matemática, la propiedad 4) implica que |x1 + x2 + · · · + xn | ≤ |x1 | + |x2 | + · · · + |xn | , para x1 , x2 , · · · , xn ∈ ℜ. En el plano euclideano ℜ2 , comunmente hemos medido la longitud de un vector x = (x1 , x2 ) ∈ ℜ2 como q p 2 2 kxk2 = |x1 | + |x2 | = (x1 )2 + (x2 )2 , lo cual, según el teorema de Pitágoras, es la longitud del segmento de lı́nea entre el orı́gen 0 = (0, 0) del plano Euclidiana y el punto x, es decir, es la longitud del vector x = (x1 , x2 ), ver figura 1 Figure 1. En el plano, la norma canónica representa la longitud del vector, es decir, la distancia entre el origen de coordenadas y el punto. Más generalmente, conocemos la longitud de un vector x = (x1 , x2 , · · · , xn ) ∈ ℜn dada por v u n uX kxk2 = t (xi )2 . i=1 Es obvio que ||x||2 es un número real no negativo para cualquier x ∈ ℜn ,ası́ que, k · k2 es un mapeo de ℜn en ℜ+ . Las siguientes propiedades son parecidas a propiedades que ya habı́amos observado para el valor absoluto: Lema 9.4. Se tiene que 1) kxk2 = 0 sı́ y sólo sı́ x = 0. 2) kαxk2 = |α| kxk2 , para todo x ∈ ℜn y α ∈ ℜ. 3) kx + yk2 ≤ kxk2 + kyk2 , para todo x, y ∈ ℜn . 1. ESTRUCTURAS SOBRE ℜ Y ℜn 137 Ejercicio 9.5. Demostrar las propiedades del lema 9.4. kxk2 es llamado la norma Euclidiana del vector x ∈ ℜn ; es evidente que para el caso n = 1, kxk2 es exactamente el valor absoluto de x. Observamos que en las propiedades de la norma Euclidiana (lema 9.4), se usa la estructura del espacio vectorial ℜn : * En 1), x = 0 significa que x es el elemento neutro del grupo (ℜn , +). * En 2), se multiplica un escalar α con un vector x. * En 3), su suman dos vectores x, y. 1.2. ℜn como espacio métrico. Observemos primero la lı́nea real y definámos la siguiente función d2 (x, y) = x, y ∈ ℜ . Evidentemente d2 (x, y) = p (x − y)2 , x − y, si x ≥ y = |x − y| −(x − y), si y ≥ x es la longitud del segmento de lı́nea entre x y y, sobre la recta de los números reales, ası́ que, d2 (x, y) mide la distancia entre x y y. Es fácil observar que d2 (·, ·) es un mapeo de ℜ × ℜ en ℜ+ , es decir, d2 (x, y) ≥ 0 para todo x, y, z ∈ ℜ, con las siguientes propiedades: 1) d2 (x, y) = 0 sı́ y sólo sı́ |x − y| = 0 ⇐⇒ x = y. 2) d2 (x, y) = d2 (y, x), 3) d2 (x, y) + d2 (y, z) ≥ d2 (x, z), Si definimos la distancia d2 (x, y) entre dos puntos del plano euclideano, x = (x1 , x2 ), y = (y1 , y2 ) ∈ ℜ2 , igualmente pcomo la longitud del segmento de lı́nea entre los dos puntos, entonces d2 (x, y) = (x1 − y1 )2 + (x2 − y2 )2 , ver figura 2, o más generalmente v u n uX d2 (x, y) = t (xi − yi )2 , i=1 para x = (x1 , x2 , · · · , xn ), y = (y1 , y2 , · · · , yn ) ∈ ℜn . Ahora, d2 (·, ·) es un mapeo de ℜn ×ℜn en ℜ+ , y tiene las mismas propiedades como las de arriba: Lema 9.6. d2 (·, ·) es un mapeo de ℜn ×ℜn en ℜ+ d2 (x, y) ≥ 0 para todo x, y, z ∈ ℜn y tiene las siguientes propiedades: 1) d2 (x, y) = 0 sı́ y sólo sı́ |x − y| = 0 sı́ y sólo sı́ x = y. 2) d2 (x, y) = d2 (y, x), 3) d2 (x, y) + d2 (y, z) ≥ d2 (x, z). d2 (x, y) se llama la métrica Euclideana sobre ℜn . Observamos que, en las propiedades de la métrica Euclideana, en contraste a las propiedades de la norma Euclideana, no se usa la estructura algebráica del espacio vectorial de ℜn , solamente aparece la estructura algebráica de los números reales (el neutro 0 de la suma, el orden ≤ y la suma entre numeros reales). Sin embargo, siendo definidas ||x||2 sobre ℜn y d2 (x, y) sobre ℜn ×ℜn , sus formulas hacen evidente las siguientes relaciones: 138 9. ESPACIOS MÉTRICOS Y UNITARIOS Figure 2. . La distancia entre dos puntos en el plano. Esta distancia es la distancia canónica en el plano y se basa en el teorema de Pitágoras. d2 (x, y) kxk2 = ||x − y||2 , = d2 (x, 0), x, y ∈ ℜn , 0 el neutro de (ℜn , +). 1.3. ℜn como espacio euclideano. Otra estructura sobre ℜn es el producto escalar sobre ℜn , también llamado producto interno sobre ℜn , definido como (x, y) = n X i=1 xi yi , x = (x1 , x2 , · · · , xn ), y = (y1 , y2 , · · · , yn ) ∈ ℜn . Evidentemente (x, y) es un mapeo de ℜn × ℜn en ℜ. Sabemos que el producto escalar es importante para definir conceptos geométricos como ángulo, ortogonalidad y paralelidad. Para ver esto, hagamos un ejemplo en ℜ2 . Ejemplo 9.7. Siempre es posible escribir un vector en ℜ2 como x = (x1 , x2 ) = r1 (cos(θ1 ), sin(θ1 )), y lo mismo para y = (y1 , y2 ) = r2 (cos(θ2 ), sin(θ2 )), ver figura 3. Entonces el producto interno de x con y es (x, y) = x1 y1 + x2 y2 = = r1 r2 (cos(θ1 ) cos(θ2 ) + sin(θ1 ) sin(θ2 )) r1 r2 cos(θ1 − θ2 ) = ||x|| · ||y|| cos(θ) donde θ es el ángulo entre los dos vectores x y y. Este resultado también puede verse como la definición de los ángulos en ℜ2 . El producto interno tiene interesantes propiedades: 1. ESTRUCTURAS SOBRE ℜ Y ℜn 139 Figure 3. Los vectores x y y escritos en coordenadas polares. En vez de asignar dos distancias con respecto a los ejes x y y, se asignan a cada punto su distancia al origen y el ángulo que forman con el eje x. que Lema 9.8. El producto escalar (x, y) definido arriba para x, y, z ∈ ℜn satisface i) (x + y, z) = (x, z) + (y, z), (αx, z) = α(x, z), (x, y + z) = (x, y) + (x, z), (x, αz) = α(x, z), para α ∈ ℜ (Bilinealidad). ii) (x, y) = (y, x), (Simetrı́a). iii) (x, x) ≥ 0 para todo x ∈ ℜn y (x, x) = 0 ⇐⇒ x = 0. n Demostraci 9.9. i) Para P el primer argumento, Pón P seanPx, y, z ∈ ℜ , α ∈ ℜ; n (x+y, z) = i=1 (xi +yi )zi = (xi zi +y Pi zi ) = xi zi +P yi zi = (x, z)+(y, z), de la misma forma se tiene que (αx, z) = ni=1 αxi zi = α ni=1 xi zi = α(x, z). La demostración para el segundo argumento es análoga, se usa la distributividad del grupo (ℜ, +) . ii) es obvio. P n iii) (x, x) = i=1 x2i evidentemente es no negativo, y es igual a 0 sı́ y sólo sı́ 2 xi = 0 para todo i (puesto que x2i ≥ 0), lo cual es equivalente a xi = 0 para todo i, lo cual equivale a x = (0, 0, · · · , 0) = 0 ∈ ℜn . La Bilinealidad en i) significa que el mapeo (·, ·) es lineal en cada coordenada. Eso no significa que el mapeo es lineal ! Si el mapeo (·, ·) fuese lineal, entonces tendrı́amos que α(x, y) = (αx, αy). Sin embargo, aplicando la bilinealidad, obtenemos (αx, αy) = α(x, αy) = α2 (x, y). En la propiedad iii), x = 0 significa que x es el neutro del grupo aditivo ℜn , es decir, x = (0, 0, · · · , 0). Resumimos lo recordado en las últimas tres subsecciones: 140 9. ESPACIOS MÉTRICOS Y UNITARIOS Resumen 9.10. Sean x = (x1 , x2 , · · · , xn ) y y = (y1 , y2 , · · · , yn ) ∈ ℜn , entonces v u n uX kxk2 = t (xi )2 , (Norma euclidiana). i=1 d2 (x, y) v u n uX = t (xi − yi )2 , (Métrica euclideana), i=1 (x, y) = n X xi yi , (Producto escalar o Producto interno). i=1 Comentario 9.11. Debido a las fórmulas anteriores, las siguientes relaciones son evidentes: 1) 2) 3) 4) d2 (x, y) = kx − yk2 , kxk2 = d2 (x, 0), (x, x) = (kxk2 )2 , p kxk2 = (x, x). En las siguientes secciones vamos a apliar todas estas definiciones a conjuntos o espacios vectoriales mas generales para construir espacios de soluciones a ecuaciones diferenciales y a problemas de la fı́sica, quı́mica, ingenierı́a, etc. 2. Espacios Métricos. La noción de distancia en las ciencias natuales y la ingenierı́a es de suma importancia. Es por eso que definir distancias entre puntos o elementos de un conjunto es de mucha utilidad para poder modelar objetos y espacios naturales. En esta sección estudiaremos conjuntos en donde se define una distancia o métrica. Este concepto esta dada en la siguiente definición. Definición 9.12. Sea X conjunto y ρ : X × X ⇀ ℜ mapeo, tal que 1) ρ (x, y) ≥ 0, ρ (x, y) = 0, sı́ y sólo sı́ x = y, i.e. positiva definida 2) ρ (x, y) = ρ (y, x) , es simétrica 3) ρ (x, z) ≤ ρ (x, y) + ρ (y, z) se cumple la propiedad del triangulo. Al par (X, ρ) se le llama espacio métrico y a la función ρ se le llama distancia o métrica. Observemos que X no necesariamente tiene algún tipo de estructura, es simplemente un conjunto. De hecho, todos los procesos matemáticos emanados de la definición aterior, como sumas y comparaciones, etc., se llevan a cabo en el campo ordenado de los reales (ℜ, +, ·, ≤). Veamos algunos ejemplos. Ejemplo 9.13. Sea X conjunto y 0 ρT (x, y) = 1 si si x=y x 6= y La distancia entre dos puntos es siempre 1. A esta distancia se le llama distancia discreta. 2. ESPACIOS MÉTRICOS. 141 Ejemplo 9.14. Recordemos el ejemplo de los reales visto en la sección aterior X = ℜn . Sean x = (l1 , · · · , ln ) y y = (m1 , · · · , mn ). La distancia estandard en ℜn es v u n uX 2 (li − mi ) ρ (x, y) = t i=1 A esta distancia se le conoce como la distancia canónica de ℜn . Ejemplo 9.15. Tomemos de nuevo los reales X = ℜn . Otra distancia en ℜn está dada por !1/p n X p ρp (x, y) = | l i − mi | , tal que p ∈ ℜ y p > 1 i=1 A esta distancia se le conoce como la distancia p de ℜn . Ejemplo 9.16. Sea C ([a, b]) = {f | f es continua en [a, b]}. Una distancia en este conjunto es !1/2 Z b 2 ρ (f, g) = (f (t) − g (t)) dt a A esta distancia se le conoce como la distancia canónica de C ([a, b]). Ejemplo 9.17. Sea C ([a, b]) . Otra distancia en C ([a, b]) es ρmax (f, g) = max | g (t) − f (t) | a≤t≤b A esta distancia se le conoce como la distancia max de C ([a, b]). P∞ Ejemplo 9.18. Sea L2 dada por L2 = {(l1 , l2 , . . .) | li ∈ ℜ tal que i=1 li < ∞}, llamados los espacios L2 , que consiste del conjunto de vectores de dimensión infinita que tienen norma finita. La función v u∞ uX (mi − li )2 ρL2 (x, y) = t i=1 con x = (l1 , l2 , . . .) y y = (m1 , m2 , . . .), es una distancia en L2 Ejercicio 9.19. Demostrar que 1)⇀6) son espacios métricos. 3) sólo para p = 3. Es conveniente definir regiones especiales de los espacios métricos. Por ejemplo, si una región esta llena de elementos del conjunto, en el sentido de que en esa región, a distancias muy cortas de algún elemento, siempre encontraremos mas elementos del conjunto o si ciertos puntos del conjunto estan a una cierta distancia de algún elemento. Al igual que en la sección pasada, en esta sección cuando nos refiramos a espacio solamente, se trata de un espacio métrico. Iniciaremos con a definición de bola, esta es Definición 9.20. Sea (X, ρ) espacio métrico. La bola de centro x ∈ X y radio r > 0, es el conjunto Br (x) = {y ∈ X | ρ (x, y) < r}, para toda r > 0 y x ∈ X. Observe que un bola nunca es vacia Br (x) 6= φ pues x ∈ Br (x) . Ejemplo 9.21. Sea (X, ρT ) espacio. Las bolas en este espacio son todas iguales Br (x) = {y ∈ X | ρT (x, y) = 1 < r} 142 9. ESPACIOS MÉTRICOS Y UNITARIOS Ejemplo 9.22. Sea (ℜn , ρ), el espacio real de dimensión n con su distancia canónica. Las bolas serán verdaderas “pelotas”, como las conocemos de nuestra experiencia. Por ejemplo, en (ℜ, ρ) las bolas estan definidas como Br (x) = = {y ∈ ℜ | ρ (x, y) = |x − y| < r} (x − r, x + r) que es el intervalo cerrado entre x − r y x + r. En (ℜn , ρ) las bolas serán v u n X u 2 (li − mi ) < r Br (x) = y ∈ ℜ2 | ρ (x, y) = t i=1 2 = {y ∈ ℜ | (l1 − m1 ) + (l2 − m2 )2 + · · · + (ln − mn )2 < r2 } 2 es decir, todos los puntos metidos dentro de una esfera de radio r con centro en x. Ejemplo 9.23. Sea (Pn ([0, 1]) , ρ), el espacio de polinomios definidos entre [0, 1] con la distancia canónica de C ([a, b]). Las bolas estan definidas como Br (f ) = {g ∈ Pn ([0, 1]) | ρ (f, g) < r}. Sea f (x) = x y tomemos n = 1 por simplicidad. Entonces Z 1 1/2 2 ρ (f, g) = (t − (a0 + a1 t)) dt 0 = 1 (1 − a0 − a1 )3 + a0 3 3 1 − a1 !1/2 Por lo tanto, la bola de radio 1 y centrada en x sera 3 B1 (x) = {a0 + a1 t ∈ P1 ([0, 1]) | (1 − a0 − a1 ) + a0 3 < 3 (1 − a1 )} Para visualizar la superficie de esta bola, hagamos a0 = r cos(θ) y a1 = r sin(θ) y grafiquemos el espacio de parametros (a0 , a1 ) en coordenadas esféricas. El resultado se muestra en la figura 4 para r = 0.5. Ejemplo 9.24. Sea (Fp , ρ), el espacio de las funciones periódicas pares definidos entre [0, 2π] con su distancia canónica. Sea f (x) = cos(2x), entonces Z 2π 1/2 2 ρ (f, g) = (cos(2t) − (a0 + a1 cos(t) + a2 cos(2t) + · · · )) dt 0 = 1/2 2 (2a20 + (a2 − 1) + a21 + · · · )π Por lo tanto, la bola de radio 1 y centrada en x sera 2 Br (cos(2x)) = {g ∈ Fp | (2a20 + (a2 − 1) + a21 + · · · )π < r2 } Ejercicio 9.25. Encontrar B1 (0) y B1 (1) en (P1 ([0, 1]) , ρ). Ejercicio 9.26. ¿Como son las bolas en (P1 ([0, 1]) , ρmax )? Ejercicio 9.27. Encontrar Br (0) y Br (cos(jx)) en (Fp , ρ). Ejercicio 9.28. ¿Como son las bolas en (ℜn , ρp )? 2. ESPACIOS MÉTRICOS. 143 Figure 4. La bola de radio 1 y centrada en x del espacio de polinomios definidos entre [0, 1] con la distancia canónica de C([a, b]), vista en coordenadas polares. Mas adelante definiremos un espacio topológico. La definición de espacio topológico esta basada en la definición de conjunto abierto. En un espacio métrico siempre es posible definir el concepto de conjunto abierto y se puede ver que con esta definición, todo espacio métrico es topológico. La definición de conjunto abierto es la siguiente Definición 9.29. Un conjunto abierto en un espacio (X, ρ) es un subconjunto U ⊆ X tal que para toda p ∈ U siempre existe ǫ > 0 con Bǫ (p) ⊂ U. φ ⊂ X es siempre abierto por definición. La primera consecuencia interesante de las bolas, es que estas son abiertas en el espacio, este resultado lo podemos enunciar como sigue. Proposición 9.30. Toda bola en un espacio métrico es un conjunto abierto. Demostración 9.31. Sea y ∈ Br (x) en el espacio (X, ρ) . Para x = y, Br (y) = Br (x) . Para y 6= x, sea ρ (y, x) = r′ < r y z ∈ Br−r′ (y). Esto implica que ρ (y, z) < r − r′ . Entonces ρ (x, z) ≤ ρ (x, y) + ρ (y, z) < r′ + r − r′ = r es decir z ∈ Br (x) y por tanto Br−r′ (y) ⊂ Br (x) . La consecuencia más interesante de estas definiciones es el hecho de que los abiertos son uniones de bolas. Mas adelante, cuando estudiemos los espacios topológicos, esta consecuencia es lo que demuestra que un espacio métrico es un espacio topológico, esto lo podemos enunciar como sigue. Proposición 9.32. A es un conjunto abierto en (X, ρ) sı́ y sólo sı́ A es unión de bolas. Demostración 9.33. =⇒) A es conjunto abierto, esto implica que para toda x ∈ A existe δ tal que Bδ (x) ⊂ A, esto es A ⊂ ∪ Bδ (x) ⊂ A o sea A = x∈A ∪ Bδ (x) . x∈A 144 9. ESPACIOS MÉTRICOS Y UNITARIOS ⇐) Sea A = ∪ Bα siendo Bα bolas en (X, ρ) . Si x ∈ A implica que x ∈ Bβ x∈I para algún β, por lo tanto A es abierto. Ejemplo 9.34. Sea (ℜn , ρT ). Las abiertos, con la métrica ρT en ℜn se ven muy distintas de los abiertos con la métrica canónica. Con esta métrica, una bola de radio r < 1 es solo el punto central Br<1 (x) = {x} y una bola de radio r ≥ 1 es todo el espacio Br≥1 (x) = ℜn . Entonces cada punto es un abierto y la union de puntos es un abierto. Otra definición importante es la de conjunto denso, es decir, la de un conjunto en el que sus elementos estan tan cercanos unos de otros como se quiera, al lado de cada elemento existirá otro elemento del conjunto. Esta definición formalmente es: Definición 9.35. Sea (X, ρ) espacio y sea E ⊆ X. Se dice que E es denso en X si para toda x ∈ X cualquier Bǫ (x) (ǫ > 0 arbitrario) se cumple que Bǫ (x)∩E 6= φ. Ejemplo 9.36. Sea (ℜn , ρ) y Cr (x) = {y ∈ ℜn | ρ (x, y) ≤ r}. Una bola Br (x) = {y ∈ ℜn | ρ (x, y) < r} es densa en Cr (x) ya que cualquier bola Bǫ (x) con x ∈ Cr (x) tendra al menos un elemento en Br (x). Ejemplo 9.37. Sea E = ℜ\N el conjunto de los reales sin los naturales. Este conjunto es denso en los reales, ya que cualquier intervalo cerrado, incluso centrado en un natural, tendra al menos un elemento de los reales, ver figura 5. Figure 5. El conjunto E = ℜ\N que es el conjunto de los reales sin los naturales. Este conjunto es denso en los reales, ya que cualquier intervalo cerrado, incluso centrado en un natural, tendrá al menos un elemento de los reales. Ejemplo 9.38. Los números irracionales son densos en los números reales. Es por eso que podemos aproximar los números irracionales con algún número racional. Ejercicio 9.39. Demuestra el siguiente lema: Si f : ℜ −→ ℜ es biyección, entonces d (x, y) =| f (x) − f (y) | es una métrica sobre ℜ. 3. ESPACIOS NORMADOS 145 3. Espacios Normados Regresemos a los espacios vectoriales en donde vamos a introducir un nuevo concepto llamado la norma, que de una forma intuitiva no dice el tamaño de un vector. Este concepto lo aprendimos en ℜn y aquı́ lo vamos a definir para cualquier espacio vectorial, es decir, este concepto solo vale en espacios vectoriales. Esto lo hacemos en la siguiente definición. Definición 9.40. Sea V espacio vectorial sobre el campo K y N : V ⇀ K un mapeo, tal que para toda x ∈ V y α ∈ K se tiene: 1) N (x) ≥ 0 para toda, x ∈ V , N (x) = 0 sı́ y sólo sı́ x = 0. 2) N (αx) = |α|N (x), 3) N (x + y) ≤ N (x) + N (y) A N se le llama norma de V y a (V, N ) se le llama espacio normado. Notación 9.41. A la norma la vamos a denotar como N =k · k La relación entre los espacios normados y los espacios métricos es que todo espacio normado es métrico, pero no alrevés. Este resultado se puede ver en la siguiente proposición. Proposición 9.42. Todo espacio normado es métrico Demostración 9.43. Sea (V, N ) un espacio normado. Tomemos ρ (x, y) = N (x − y), para todo x, y ∈ V, espacio vectorial. Entonces ρ (x, y) es una distancia, ya que 1) ρ (x, y) = N (x − y) ≥ 0 y ρ (x, y) = 0 sı́ y sólo sı́ N (x − y) = 0 o sea sı́ y sólo sı́ x = y. 2) ρ (x, y) = N (x − y) =| −1 | N (y − x) = ρ (y, x) 3) ρ (x, z) = N (x − z) = N (x − y + y − z) ≤ N (x − y)+N (y − z) = ρ (x, y)+ ρ (y, z). Entonces si definimos un espacio normado, automaticamente hemos definido un espacio métrico pero no alrevés. Veamos un ejemplo donde un espacio métrico no puede generar una norma. Ejemplo 9.44. Sea (ℜ, dln ), con dln (x, y) = |ln (x + 1) − ln (y + 1)|. Veamos que esta distancia genera una métrica. i) dln (x, y) ≥ 0, ya que |ln (x + 1) − ln (y + 1)| ≥ 0 ii) dln (x, y) = dln (y, x) iii) dln (x, z) = |ln (x + 1) − ln (z + 1)| = |ln (x + 1) − ln (y + 1) + ln (y + 1) − ln (z + 1)| ≤ |ln (x + 1) − ln (y + 1)| + |ln (y + 1) − ln (z + 1)| = dln (x, y) + dln (y, z) Pero esta distancia no genera una norma. Uno esperarı́a que la norma, el tamaño del vector, debiere estar dado por k x kln = dln (x, 0) = |ln (x + 1)|. Sin embargo esta no es una norma, ya que no cumple con el inciso 2) de la definición 9.40, por ejemplo, k 3 · 2 kln =k 6 kln = ln (7) 6= |3| k 2 kln = 3 ln (3). En los espacios vectoriale el concepto de continuidad es un concepto que depende esencialmente de la existencia de una distancia o de una norma. Las definiciones de continuidad y de lı́mite de una sucesión se puede hacer utilizando una 146 9. ESPACIOS MÉTRICOS Y UNITARIOS norma o una distancia. En lo que sigue, usaremos el sı́mbolo ρ(x, y) para designar la norma N (x − y) o la distancia ρ(x, y) en un espacio métrico o normado y designaremos indistintamente los elementos de estos espacios por letras x, y, z, etc. aunque sean vectores, y diremos explicitamente cuando hay una diferencia. Como ya hemos definido distancia en un conjunto, ahora es posible definir el concepto de continuidad. Este concepto consiste en el hecho de que la distancia de dos imagenes de una función es tan pequeña como se quiera (respecto a la distancia definida en el conjunto) para dos puntos tan cercanos como se quiera, la definición formal es como sigue. Definición 9.45. Sean (X, ρ) y (X ′ , ρ′ ) espacios métricos o normados. Una función f : X ⇀ X ′ se dice continua en x ∈ X, si para toda ǫ > 0 existe un δ = δ (ǫ, x) tal que si ρ (x, y) < δ esto implica que ρ′ (f (x) , f (y)) < ǫ. Si f es continua para toda x ∈ A ⊂ X, se dice que f es continua en A. Si para toda x ∈ A ⊂ X se tiene que δ = δ (ǫ), se dice que f es uniformemente continua en A. Ejemplo 9.46. Sea (ℜn , ρ) el espacio real con su métrica canónica. Entonces la definición de continuidad es la definición tradicional para funciones f : ℜn ⇀ ℜm . Ejemplo 9.47. Sea (X, ρT ) espacio métrico y sea f : X ⇀ X. Observemos que no existe una δ tal que para ǫ > 0, digamos ǫ = 0.5 tal que ρT (x, y) = 1 < δ, implica ρ (f (x) , f (y)) < ǫ, ya que ρ (f (x) , f (y)) = 1. Es decir, con esta métrica, ninguna función es continua. Ejercicio 9.48. Sea (ℜ, ρp ). Vean si la función f : ℜ ⇀ ℜ, x → f (x) = x es continua. Ahora introducimos el concepto de sucesión. Las sucesiones serán de gran utilidad para demostrar algunos teoremas, su definición es: Definición 9.49. Una sucesión es un mapeo de los enteros positivos a un conjunto X, es decir f : Z + → X, tal que i → f (i) = xi . Ejemplo 9.50. Sea X = ℜ Entonces f : Z + → ℜ con n → xn = n2 , 1/n, sin(n), etc. son sucesiónes en los reales. Las sucesiones más interesantes en un espacio métrico o normado son las sucesiones de Cauchy, estas son sucesiones en las que los elementos de la sucesión estan tan cerca como se quiera unos de otros, después de algún término de la sucesión dado. Se definen como sigue. Definición 9.51. Sea (xi ) para i ∈ Z + una sucesión en (X, ρ) . Se dice que (xi ) es de Cauchy si para toda ǫ > 0 existe un número entero positivo N ∈ Z + tal que ρ (xk , xl ) < ǫ si k, l ≥ N. Ejemplo 9.52. La sucesión en (ℜ, ρ), xn = 1/n es una sucesión de Cauchy, ya que ρ(xk , xl ) = |1/k − 1/l| < ǫ para algún numero ǫ, siempre que k y l sean suficientemente grandes. Ejemplo 9.53. En un espacio (X, ρT ) salvo la sucesión constante, no hay sucesiones de Cauchy, ya que ρT (xk , xl ) = 1 siempre, los elementos de la sucesión nunca estan suficientemente cerca. Ejercicio 9.54. Sea la sucesión xn = 1/n en (ℜ, ρp ) . Vean si esta sucesión es de Cauchy. 3. ESPACIOS NORMADOS 147 Una sucesion es convergente si para un elemento determinado la distancia de todos los elementos restantes estan tan cerca como se quiera de algún número x, donde el número x no necesariamente pertenece a la sucesión. Formalmente se tiene la definición. Definición 9.55. Sea xi sucesión en (X, ρ) . xi se dice convergente a x ∈ X, si para todo ǫ > 0 existe N = N (x, ǫ) ∈ Z + tal que ρ (xn , x) < ǫ si n ≥ N. Se simboliza por xi ⇀ x. Notación 9.56. La convergencia de una sucesión también se simboliza como lim xn = x n→∞ Ejemplo 9.57. La sucesión en (ℜ, ρ), dada por xn = 1/n es una sucesión convergente, ya que ρ(xk , 0) = |1/k − 0| < ǫ para algún numero ǫ, siempre que k y l sean suficientemente grandes. Ejercicio 9.58. Usando la definición del lı́mite, demuestren que 3n a) lim n+1 =3 n→∞ 1 2 n→∞ n +1 b) lim = 0. Ejercicio 9.59. Den un ejemplo que muestra que la convergencia de (|xn |) no implica la convergencia de (xn ). Resumen 9.60. Vamos a recordar algunas propiedades de la convergencia de sucesiones en un espacio métrico o normado (X, ρ): 1) Para toda sucesión, si tiene un lı́mite, este es únicamente determinado. lim xn = x, en X, sı́ y sólo sı́ lim ρ(xn , x) = 0, en ℜ. n→∞ n→∞ Las siguientes propiedades nos proporcionan herramientas para calcular lı́mites: 2) Toda sucesión convergente es acotada. 3) Si (xn ) y (yn ) son convergentes con lim xn = x, lim yn = y, entonces las n→∞ n→∞ sucesiones (xn + yn ) y (xn · yn ) son también convergentes y lim (xn + yn ) = x + y, n→∞ lim (xn · yn ) = x · y. n→∞ 4) Si lim xn = x, lim yn = y, y y 6= 0, yn 6= 0 para toda n , entonces n→∞ lim ( xynn ) = n→∞ x y n→∞ . 5) Si (xn ) y (yn ) son convergentes y xn ≤ yn para todo n, entonces lim xn ≤ lim yn n→∞ n→∞ Como corolario de esta propiedad se tiene que aplicando ésta a la sucesión constante xn = 0 obtenemos: si (yn ) es convergente y yn ≥ 0 para toda n, entonces lim yn ≥ 0. n→∞ 6) Si (xn ) es convergente y existen a, b ∈ ℜ tales que a ≤ xn ≤ b para toda n, entonces a ≤ lim xn ≤ b. n→∞ 7) Si (xn ) es monótona, entonces lo siguiente es verdad: i) (xn ) es convergente, sı́ y sólo sı́ (xn ) es acotada. ii) Si (xn ) es creciente y acotada, entonces lim xn = sup({xn , n ∈ N }). n→∞ iii) Si (xn ) es decreciente y acotada, entonces lim xn = inf({xn , n ∈ N }). n→∞ 148 9. ESPACIOS MÉTRICOS Y UNITARIOS n Ejemplo 9.61. La sucesión en (ℜ, ρ) , dada por xn = (1 + 1/n) es también n una sucesión convergente y converge a (1 + 1/n) → e. n Ejemplo 9.62. Sin embargo, la sucesión en (Q, ρ) , dada por xn = (1 + 1/n) n no es una sucesión convergente, ya que (1 + 1/n) → e y e ∈ / Q. Esta sucesión no es convergente pero si es de Cauchy. n Ejercicio 9.63. Muestren que la sucesión en (Q, ρ) , dada por xn = (1 + 1/n) es de Cauchy. Ejercicio 9.64. Den ejemplos de: a) Dos sucesiones divergentes (xn ), (yn ) tales que la sucesión (xn + yn ) es convergente. b) Sucesiones divergentes (xn ), (yn ) tales que la sucesión (xn · yn ) es convergente. c) Una sucesión acotada que no es convergente. Ejercicio 9.65. Establecer la convergencia (entonces determinar lı́mites) o divergencia de las siguientes sucesiones: 2 +5 a) xn = 3n n2 +1 , 4n b) xn = n+1 , c) xn = (−1)n n n+3 . Como vemos, la sucesión xn = 1/n es de Cauchy y es convergente. Existe una conección entre ambos conceptos. Para esto se tiene la siguiente proposición. Proposición 9.66. En un espacio métrico o normado, toda sucesión convergente es de Cauchy. Demostración 9.67. Sea xi sucesión convergente a x en (X, ρ) . Entonces xi ⇀ x implica que para toda ǫ > 0 existe N = N (x, ǫ) ∈ Z + tal que ρ (xn , x) < ǫ/2 si n ≥ N , por tanto ρ (xn , xm ) ≤ ρ (xn , x) + ρ (xm , x) < ǫ si n, m ≥ N. Por supuesto, como ya vimos con un ejemplo, lo contrario de esta proposición no siempre es verdad. Las sucesiones de Cauchy no siempre son convergentes. Los espacios en los que toda sucesión de Cauchy converge son muy especiales y tienen un nombre particular, se tiene la siguiente definición. Definición 9.68. Un espacio métrico o normado es completo si toda sucesion de Cauchy converge. Ejemplo 9.69. Se puede mostrar que los números reales con su norma canónica es un espacio completo, pero como ya vimos, los racionales no es un espacio completo. Claro, les faltan los irracionales para serlo. De hecho, cualesquier norma sobre ℜn generan el mismo comportamiento de convergencia sobre sucesiones, implicando que ℜn con cualquier norma es completo. Sin embargo, esto no es valido si trabajamos en espacios métricos, vamos a ver uno ejemplo: Ejemplo 9.70. Considerese (ℜ, dE ), dE (x, y) = |x − y|, y la sucesión xn = n, n ∈ N . Claro que lim xn = ∞, es decir, (xn ) no converge en ℜ con respecto a n→∞ dE , también es claro que (xn ) no es de Cauchy en (ℜ, dE ), debido a que |xn − xm | ≥ 1 para todo n, m ∈ N , m 6= n. Ahora tomemos la distancia en ℜ da (x, y) = |arctan(x) − arctan(y)| 3. ESPACIOS NORMADOS 149 y consideramos el espacio métrico (ℜ, da ). La sucesión (xn ) si es de Cauchy, pues lim |arctan(n) − arctan(m)| = 0, n,m→∞ sin embargo, aquı́ igualmente vale que lim xn = ∞, es decir, (xn ) es una sucesión n→∞ de Cauchy que no converge. Por lo tanto, (ℜ, da ) no es completo, es decir, los reales no son un espacio completo con esta distancia. Por cierto, observese que este da no genera una norma sobre ℜ. Lo que nos dice el ejemplo anterior es que un conjunto puede ser completo con una distancia y no serlo con otra, incluso esto puede suceder en ℜn . Sin embargo, en ℜn todas las normas nos dicen que ℜn es completo. En ocaciones hay espacios en donde las métricas se conservan o hay funciones en un espacio que conseva la métrica. A estas funciones que conservan las métricas se les conoce como isometrı́as. Veamos su definición formal. Definición 9.71. Sean (X, ρ) y (X ′ , ρ′ ) espacios métricos y f : X ⇀ X ′ funcion. f es una isometrı́a si ρ′ (f (x) , f (y)) = ρ (x, y) . Las isometrias son funciones muy especiales, son inyectivas y uniformemente continuas, se tiene para ello la siguiente proposición. Proposición 9.72. Sea f : X ⇀ X ′ isometrı́a. Se tiene i) f es inyectiva ii) f es uniformemente continua Demostración 9.73. i) Sean x, y, ∈ X con x 6= y, entonces 0 6= ρ (x, y) = ρ′ (f (x) , f (y)) , es decir, f (x) 6= f (y) . ii) Sea ǫ > 0 y x ∈ X. ρ (x, y) < ǫ implica que ρ′ (f (x) , f (y)) < ǫ = δ. Es más, la composición de isometrı́as, es isometrı́a. Es por eso que con la composición de funciones se puede defirnir un producto. Primero veamos la siguiente proposición. Proposición 9.74. La composición de isometrı́as es una isometrı́a. Demostración 9.75. Sean (X, ρ) , (Y, ρ′ ) , (Z, ρ′′ ) espacios métricos y f : X ⇀ Y y g : Y ⇀ Z isometrı́as. Entonces ρ (x, y) = ρ′ (f (x, ) f (y)) = ρ′′ (g(f (x)) , g (f (y)) = ρ′′ (g ◦ f (x) , g ◦ f (y)) Con este producto se define entonces un grupo con el conjunto de isometrı́as sobre. Veamos esto en la siguiente proposición. Proposición 9.76. Sea (X, ρ) espacio métrico y sea el par Iso (X, ρ) = ({f : X ⇀ X | f es isometrı́a sobre } , ◦) donde ◦ es la composición de funciones. Iso (X, ρ) es un grupo, llamado grupo de isometrı́as del espacio métrico (X, ρ) . 150 9. ESPACIOS MÉTRICOS Y UNITARIOS Demostración 9.77. Demostremos las propiedades de grupo de Iso : i) Asociatividad: es claro que (f ◦ g) ◦ h = f ◦ (g ◦ h) para cualquier función f, g, h ∈ Iso (X, ρ) ii) id|X ∈ Iso (X, ρ) , pues ρ (Id|X (x) , id|X (y)) = ρ (x, y) , por lo que Id|X es isometrı́a. iii) f sobre, como f es isometria, es inyectiva, por tanto f es bijectiva por lo tanto, existe f −1 tal que f ◦ f −1 = id |X llamada la inversa. En general Iso (X, ρ) no es abeliano, ya que f ◦ g 6= g ◦ f . El grupo de isometrı́as es de suma importancia en fı́sica, tanto en teorı́as de campo como en gravitación. Pn | xi |, con x = Ejercicio 9.78. Para x ∈ ℜn , se define k x k= i=1 (x1 , · · · , xn ) a) Demuestra para el caso n = 2 que eso define una norma sobre ℜn . b) Cuales son los puntos de ℜn que tienen norma 1? En ℜ2 hay 4 puntos x con k x k= 1, por eso esa norma se denota por k x k4 . c) Considera k · k4 sobre Z 2 ( x ∈ ℜn con coordenadas enteras), ası́ que para x = (x1 , x2 ) :k x k4 =| x1 | + | x2 | . Aplicando que cada norma k · k genera una métrica d por d (x, y) =k x − y k, la métrica correspondiente a k · k4 es d4 , dada por d4 (x, y) =| x1 − y1 | + | x2 − y2 |, x = (x1, x2 ), y = (y1, y2 ) ¿Cómo se ven las circunferencias con respecto a esta métrica? (Circunferencia con centro x y radio r es entonces el conjunto Cr (x) = { y ∈ Z 2 | d4 (x, y) = r},) estudielo para x = (0, 0) , r = 1, 2, 3, 4. Ejercicio 9.79. Aplicando el lema 9.6, demuestre que d (x, y) =| f (x)−f (y) | es una métrica sobre ℜ para ln (x) para x ≥ 1 f (x) = (x − 1) para x < 1 Definase para x ∈ ℜ, tal que k x k no es una norma sobre ℜ (¿Cual axioma falla?) Eso se debe al hecho que nuestra métrica, por ejemplo, no es invariante bajo traslación, es decir, existen x, t, a ∈ ℜ tales que d (x + a, y + a) 6= d (x, y) . Encuentre tales x, t y a. 4. Espacios Euclideanos. En esta sección vamos a estudiar espacios vectoriales con una estructura muy particular. Se trata de espacios vectoriales en donde se ha definido una distancia ó una norma, es decir, el tamaño de un vector. Estas estructuras son muy comunes en ciencias naturales y muy útiles para definir movimiento en estos conjuntos. Primero introducimos el concepto de producto escalar. Definición 9.80. Sea V un espacio vectorial real y B : V × V ⇀ ℜ para toda x, y ∈ V una función bilineal tal que 1) B(x, y) = B(y, x) , i.e. B es simétrica 2) B (x, x) ≥ 0, i.e. B positiva definida 3) B (x, x) = 0, sı́ y sólo sı́ x = 0. A B se le llama un producto escalar o producto interno en V . Con esta definición de producto en espacios vectoriales podemos definir el concepto de espacio euclideano 4. ESPACIOS EUCLIDEANOS. 151 Definición 9.81. Al par (V, B) donde V es un espacio vectorial real y B un producto escalar, se le llama espacio euclideano. etc. Notación 9.82. A B también se le denota como (·, ·) , hx, yi , [x, y] , x · y, Veamos algunos ejemplos de productos internos y de espacios euclideanos. Ejemplo 9.83. (ℜn , (·, ·)) con (x, y) = l1 m1 + · · · + ln mn , con x, y ∈ ℜn tales que x = (l1 , · · · , ln ) y y = (m1 , · · · , mn ) P∞ Ejemplo 9.84. Sea L2 = {(l1 , l2 , · · · ) | li ∈ ℜ tal que i=1 li2 < ∞} con el producto interno (x, y) = ∞ X l i mi , i=1 x = (l1 , l2 , · · · ) y = (m1 , m2 , · · · ) P Entonces (L2 , (·, ·)) es un espacio euclideano ya que ni=1 li mi es absolutamente convergente. L2 es de dimensión infinita. Ejemplo 9.85. Sea (Pn , ·) el espacio de los polinomios, con el producto interno · definido por x · y = a0 b0 + a1 b1 + · · · + an bn , para x, y ∈ Pn , donde x = a0 + a1 x, · · · , an xn y y = b0 + b1 x, · · · , bn xn . Se puede demostrar que con este producto interno, Pn es un espacio euclideano. Ejemplo 9.86. Sea CR ([a, b]) el conjunto de las funciones continuas en [a, b]. Sea (f, g) = Z b f (x) g (x) dx, a f, g ∈ CR ([a, b]) entonces (f, g) es un producto escalar. Veamos esto Demostración 9.87. (f, g) es bilineal, ya que, para la primera entrada de Rb (·, ·) se tiene (α1 f1 + α2 f2 , g) = a (α1 f1 (x) + α2 f2 (x)) g (x) dx = α1 (f1 , g) + α2 (f2 , g) y análogamente para la segunda entrada (·, ·) es simétrico Rb Rb (f, f ) = a f 2 (x) dx ≥ 0. Ademas si (f, f ) = 0 esto es sı́ y sólo sı́ a f 2 (x) dx = 0 sı́ y sólo sı́ f 2 (x) = 0 para toda x ∈ [a, b] . Habiendo introducido el concepto de producto escalar entre vectores, podemos ahora introducir el concepto de tamaño de un vector, que es el producto interno del vector consigo mismo, o sea Definición 9.88. Sea (V, (·, ·)) un espacio euclideano. A k x k= ((x, x))1/2 x∈V se le llama la norma compatible de x. También es posible definir el tamaño de un vector, su norma, sin necesidad de definir el producto interno, utilizando la definición 9.40 de norma en espacios vectoriales, no necesariamente con producto interno. De hecho, la norma compatible es una norma en el espacio vectorial, pero que es compatible con el producto interno. Vamos a ver esto, pero antes veamos la siguiente proposición: 152 9. ESPACIOS MÉTRICOS Y UNITARIOS Proposición 9.89 (Desigualdad de Schwarz). El valor absoluto del producto interno de dos vectores es menor o igual que el producto de las normas, i.e. | (x, y) |≤k x k · k y k . Demostración 9.90. Sean x′ , y′ ∈ V y tomemos x = tal forma que k x k=k y k= 1. Sea t ∈ ℜ, se sigue que x′ kx′ k , y= y′ ky′ k de 0 ≤ (x − ty, x − ty) = (x, x) − (x, ty) − (ty, x) + (ty, ty) = (x, x) − 2t (x, y) + t2 (y, y) =k x k2 −2t (x, y) + t2 k y k2 = 1 − 2t (x, y) + t2 2 = (t − (x, y)) + 1 − ((x, y)) 2 2 El término (t − (x, y)) es siempre positivo o puede ser cero. Si hacemos t = 2 2 (x, y) obtenemos que 0 ≤ 1 − ((x, y)) , lo que implica que ((x, y)) ≤ 1, o sea | (x, y) |≤ 1. Entonces se tiene que en general | y′ x′ kx′ k , ky ′ k |= 1 kx′ kky′ k (x′ , y′ ) ≤ 1 La relación entre espacios normados y euclidianoes es que todo espacio euclideano es un espacio normado, pero no alrevés. Esto lo vemos en la siguiente propisición. 1/2 Proposición 9.91. Sea (V, (·, ·)) espacio euclideano y k x k= ((x, x)) tonces (V, k · k) es un espacio normado. . En- Ejercicio 9.92. Demostrar la proposición. (Usar la desigualdad de Schwarz) Vamos a ver algunos ejemplos, pero iniciemos presisamente con un ejemplo en donde el espacio no es euclidiano, pero es un espacio sumamente interesante e importante en todas las áreas del conocimiento. Ejemplo 9.93. Sea L = ℜ2 , (·, ·) , con el producto (x, y) = l1 m1 −l2 m2 donde x = (l1 , l2 ) y y = (m1 , m2 ). Este no es un producto interno ya que (x, x) = l12 − l22 no es mayor que cero y (x, x) = l12 − l22 = 0 no implica que x = 0. Un espacio con este pseudo-producto interno se conoce como espacio Pseudo-euclideano o Espacio de Lorentz. A la norma generada por este producto interno se le llama Norma de Lorentz. Estos espacios son de vital importancia en fı́sica puesto que son un modelo del espacio tiempo real y por eso les daremos un lugar especial. Observemos entonces que con la norma de Lorentz, hay vectores que no son cero, pero tienen norma (tamaño) igual a cero. A estos vectores se les conoce como vectores nulos. Generalmente un vector en este espacio se denota como v = (x, t), se tiene que k v k= x2 − t2 . Los vectores nulos cumplen con la relación x = ±t, es decir, son los vectores tangente a trayectorias sobre el cono de luz. Ejemplo 9.94. (ℜn , (·, ·)) con el producto interno canónico. Entonces se puede definir una norma y con esta una métrica. La norma será N (x) = (x, x) = p l12 + · · · + ln2 , con x =q (l1 , · · · , ln ). Entonces la métrica canónica está dada por 2 2 ρ (x, y) = N (x − y) = (l1 − m1 ) + · · · + (ln − mn ) para y = (m1 , · · · , mn ). n Esta es la métrica canónica de ℜ . 5. ESPACIOS UNITARIOS 153 Ejemplo 9.95. Sea (Pn , ·), con el producto interno · canónico. Hagamos lo mismo que para (ℜn , (·, ·)). Se tiene que x · y = a0 b0 + a1 b1 + · · · + an bn , para x, y ∈ Pn , donde x = a0q +a1 x+, · · · , +an xn y y = b0 +b1 x+, · · · , +bn xn . Entonces 2 2 2 ρ (x, y) = N (x − y) = (a0 − b0 ) + (a1 − b1 ) + · · · + (an − bn ) . La cual es la métrica canónica para Pn . Ejemplo 9.96. Sea C ([a, b]) el conjunto de las funciones continuas en [a, b] . De nuevo podemos construir una métrica en el espacio de funciones como ρ (f, g) = N (f − g) = (f − g, f − g) !1/2 Z b 2 = (f (x) − g (x)) dx , a f, g ∈ C ([a, b]) la cual es la métrica canónica para C ([a, b]). Ejemplo 9.97. Sea (Fp , ρ), el espacio de las funciones periodicas definidos entre [0, 2π] con esta distancia canónica podemos ver cual es la distancia entre cos(ix) y cos(jx), se tiene: Z 2π 1/2 2 ρ (cos(ix), cos(jx)) = (cos(ix) − cos(jx)) dt 0 √ 2π, para i 6= j = √ √ Ejercicio 9.98. Demostrar que ρ (sin(ix), cos(jx)) = 2π y ρ (sin(ix), sin(jx)) = 2π para i√ 6= j. Es decir, la distancia entre los vectores base de las funciones periodicas es 2π. Ejemplo 9.99. Sea L el espacio de Lorentz. q Entonces se puede construir la 2 2 métrica ρ (x, y) = NL (x − y) =k x − y k= (x1 − y1 ) − (x2 − y2 ) . Observen que se pueden tener dos vectores diferentes, pero separados una distancia 0. Ejercicio 9.100. Demuestre lo siguiente:pSi V es un espacio vectorial sobre ℜ con producto interno (·, ·) , entonces k x k= (x, x) define una norma sobre V . Nota: aplicar la desigualdad de Schwarz: | (x, y) |≤k x k · k y k . 5. Espacios Unitarios En esta sección vamos a generalizar los espacios Euclidianos al caso en el que el campo del espacio vectorial no sean los números reales, sino el campo de los complejos. Como veremos, existen varias diferencias interesantes que hacen a estos espacios sobre los complejos importantes, sobre todo en la mecánica cuántica, que es importante en fı́sica, quı́mica, ingenierı́a, etc. Su definición es como sigue. Definición 9.101. Sea E un espacio vectorial sobre C y x, y ∈ E. Sea B : E × E → C un mapeo lineal en el primer argumento tal que 1) B (x, y) = B (y, x) es antisimétrico 2) B (x, x) ≥ 0 es real 3) B (x, x) = 0 sı́ y sólo sı́ x = 0 154 9. ESPACIOS MÉTRICOS Y UNITARIOS A B (x, y) = (x, y) se le llama producto escalar sobre E, y a (E, (·, ·)) se le llama espacio unitario. Comentario 9.102. Algunas consecuencias inmediatas de la definición anterior son las siguientes: 1) (x, αy) = (αy, x) = α (y, x) = α(y, x) = α (x, y) α ∈ C 2) (x, y1 + y2 ) = (y1 + y2 , x) = (y1 , x) + (y2 , x) = (y1 , x)+(y2 , x) = (x, y1 )+ (x, y2 ) 3) |Re (x, y) |≤k x kk y k Ejercicio 9.103. Demostrar 3) Veamos algunos ejemplos de espacios unitarios. Ejemplo 9.104. Sea P el espacio vectorial C n con el producto interno para x, y ∈ n C definido por (x, y) = i=1 li · mi , donde x = (l1 , · · · , ln ) y y = (m1 , · · · , mn ), n entonces (C , (·, ·)) es un espacio unitario. n Ejemplo 9.105. Sea de nuevo L2 , pero ahora sobre el campo de los complejos, es decir, ) ( ∞ X 2 | li | < ∞ (9.1) L2 = li , para i = 1, · · · , ∞ | li ∈ C, P∞ i=1 Entonces (L2 , (·, ·)) con (x, y) = i=1 li · mi es un espacio unitario, con x y y definidos como en el ejemplo anterior. Rb Ejemplo 9.106. CC ([a, b]) y (f, g) = a f (x) g (x)dx, con f, g ∈ CC ([a, b]) es Rb un espacio unitario, ya que si f = u + iv, u, v ∈ CR ([a, b]), entonces a f (x) dx = Rb Rb a u (x) dx+i a v (x) dx, y la parte real y la imaginaria forman espacios euclidianos por separado, entonces no es dificil ver que con este producto (CC ([a, b]) , (·, ·)) es un espacio unitario. En este capı́tulo vamos a usar la notación de espacio para designar a un espacio euclideano o a un espacio unitario. En los casos en que se trate de alguno en particular, se dirá explicitamente. La noción de que dos vectores son perpendiculares en el espacio es un concepto muy usado en geometrı́a euclidiana y en la vida cotidiana. Sin embargo, en un espacio vectorial arbitrio este concepto no es tan claro, al menos no se pude deducir intuitivamente. Por ejemplo, que significa que dos funciones o dos polinomios son perpendiculares. Este concepto nos conduce a la geometrización del espacio vectorial en cuestion. Veamos las siguientes definiciones sobre perpendicular u ortogonal, que serán muy importantes para la geometrización del espacio. Definición 9.107. Sea (E, (·, ·)) espacio unitario y sean x, y ∈ E, con x 6= 0 y y 6= 0. Si 1.- (x, y) = 0, x y y se dicen ortogonales o perpendiculares. Se simboliza x ⊥ y. 2.- Sean H ⊆ E y G ⊆ E. Se dice que H es perpendicular u ortogonal a G, si para toda x ∈ H y y ∈ G, (x, y) = 0. Se simboliza H ⊥ G. 3.- Sea H ⊆ E y H ⊥ = {x ∈ E | (x, y) = 0 y ∈ H} se llama el complemento ortogonal de H. 5. ESPACIOS UNITARIOS 155 Ejemplo 9.108. Sea el espacio (ℜn , (·, ·)). Los vectores {ei }i=1,··· ,n definidos por ei = (0, · · · , 1, · · · , 0), con el 1 en la i − esima posición, son todos perpendiculares entre si. Ejemplo 9.109. Sea (Pn , ·), con su producto interno canónico. Entonces los polinomios 1, x, · · · , xn son todos perpendiculares entre si. Ejemplo 9.110. Sea Fp ([0, 2π]) el conjunto de la funciones periodicas en [0, 2π] . Entonces las funciones cos(t), cos(2t), · · · sin(t), sin(2t), · · · son perpendiculares entre si. Esto se ve, si hacemos Z 2π (cos(it), cos(jt)) = cos(it) cos(jt)dt 0 = πδij donde δij es la delta de Kroneker. Ejercicio 9.111. Demostrar que (cos(it), cos(jt)) = πδij , lo mismo que (sin(it), sin(jt)) = πδij y (sin(it), cos(jt)) = 0. Estas definiciones tienen consecuencias inmediatas, veamos ahora dos de ellas: Proposición 9.112. . 1) H ⊥ es subespacio de E ⊥ 2) H ⊆ H ⊥ Ejercicio 9.113. Demostrar la proposición anterior En lo que sigue vamos a introducir uno de los conceptos más importantes con el que vamos a trabajar en este capı́tulo y el de ecuaciones diferenciales. La idea es tener un espacio vectorial con vectores perpendiculares que sean solución de un cierto problema. Para introducir poco a poco estos espacios, vamos a iniciar con la siguiente definición. Cuando en un espacio vectorial un conjunto de vectores son perpendiculares entre sı́, este conjunto recibe un nombre especial, este es: Definición 9.114. Sea (E, (·, ·)) espacio unitario. Sea {xi }i∈I una familia de elementos de E. Si xi ⊥ xj para todos i, j ∈ I, I un conjunto de indices, i 6= j se dice que {xi }i∈I es un sistema ortogonal. Si ademas k xi k= 1 para todo i ∈ I, entonces {xi }i∈I se llama sistema ortonormal. 0, si i 6= j Observemos que en este caso se sigue (xi , xj ) = δij = 1, si i = j En un espacio euclidiano la geometrı́a de éste se construye, por ejemplo, utilizando el teorema de Pitágoras. Este teorema utiliza fuertemente el concepto de lineas o vectores perpendiculares. Vamos a ver ahora que este teorema se cumple en los espacios euclidianos y unitarios y es la base de su geometrización. Su enunciado es como sigue. E, Teorema 9.115 (de Pitágoras). Sea (E, (·, ·)) espacio. Sean x1 , · · · , xn ∈ tal que {xi }i=1,··· ,n es un sistema ortogonal. Entonces k x1 + · · · + xn k2 =k x1 k2 + · · · + k xn k2 Demostración 9.116. Vamos a realizar el producto interno de la suma de todos del sistema ortogonoal, es decir, (x1 + · · · + xn , x1 + · · · + xn ) = Pn Pn los vectores P n k xi k2 , se sigue entonces el teorema. (x , x ) = (x , x ) = i i i j i=1 i=1 i,j=1 156 9. ESPACIOS MÉTRICOS Y UNITARIOS Como ya habiamos visto anteriormente, en todo espacio vectorial existe al menos una base. Lo que veremos a continuación es que en todo espacio vectorial existe al menos una base ortogonal. Este resultado se discute en el siguiente teorema. Teorema 9.117 (de Schmidt). Sea (E, (·, ·)) espacio unitario y {yi }i∈1 vectores lienalmente independiente de E con H = L ({y1 , y2 , · · · }) ⊂ E. Entonces existe un sistema ortogonal {xi }i∈1 con H = L ({x1 , x2 , · · · }) . Demostración 9.118. El teorema se demuestra construyendo la base. La idea de la demostración es que se toma una base arbitraria del espacio vectorial y se construye la nueva base ortogonal vector por vector, usando combinaciones lineales de la base origianal, haciendo que cada nuevo vector base sea perpendicular a los otros. Ejemplo 9.119. Sea el espacio (ℜn , (·, ·)). Los vectores {ei }i=1,··· ,n son perpendiculares todos entre si y su norma es 1. Por lo que esta base forma un sistema ortonormal en ℜn . Ejemplo 9.120. Sea (Pn , ·), con su producto interno canónico. Entonces los polinomios 1, x, · · · , xn son todos perpendiculares entre si y forma un sistema ortonormal en Pn . Ejemplo 9.121. Sea Fp ([0, 2π]) el conjunto de las funciones periodicas en [0, 2π]. Entonces las funciones cos(t), cos(2t), · · · sin(t), sin(2t), · · · son perpendiculares entre si y forman un sistema ortogonal en Fp ([0, 2π]). Oberven que el conjunto de vectores no tiene norma 1, sino π. CHAPTER 10 ESPACIOS DE HILBERT Y BANACH En esta sección nos vamos a enfocar a los espacios completos, con una estructura de espacio vectorial y que tengan una norma o un producto interno o ambos. Estos espacios, llamados espacios de Banach y espacios de Hilbert, son muy importantes porque ahi viven los operadores diferenciales y las soluciones de un sinnumero de ecuaciones diferenciales. Esto le da una importencia enorme a este tipo de espacios. Vamos a iniciar con la introducción de algunas propiedades de las series en espacios normados y luego con la definición de los espacios de Hilber para después pasar a su manipulación. 1. Sistemas Ortonormales Completos. Como ya vimos, con la norma se pueden definir conceptos como continuidad, convergencia, etc. Vamos a iniciar con las series en estos espacios y veamos un concepto que generaliza el concepto de estas series. Sea (B, k · k) un espacio de normado, y (xn ) una sucesión en B. Definimos inductivamente una sucesión nueva (sn ). Definici ón 10.1. Sea s1 = x1 , sn+1 = sn + xn+1 para toda n = 1, 2, · · · . P sn = ni=1 xi se llama suma parcial n-esima de (xn ). Si (sn ) es convergente, entonces s = lim sn , con s ∈ B, se llama serie infinita de (xn ), y se denota por n→∞ P∞ s = i=1 xi . Comentario 10.2. Para B = ℜ, si (sn ) no es convergente, se consideran dos casos: i) (sn ) es una serie propiamente divergente, es decir, lim sn = ∞, o n→∞ P lim sn = −∞, entonces se dice que la serie ∞ xi diverge propiamente a ∞ o a i=1 n→∞ −∞; ii) En otro caso, tenemos una divergencia indeterminada de (sn ), se dice P∞ que la serie i=1 xi es oscilalante. Comentario 10.3. En ocasiones es útil iniciar la enumeración de (sn ) con n = 0, o con algún otro número entero. Ası́ que, el analisis de series infinitas, en su esencia, es el P analisis de sucesiones Pn especiales, solo que en cada momento hay ∞ que recordar que i=1 xi = lim ( i=1 xi ). n→∞ Lema 10.4 (Criterio necesario de convergencia de series). La convergencia de P∞ la serie i=1 xi implica que lim xn = 0. n→∞ Demostración 10.5. s = P∞ i=1 xi = lim sn = lim sn+1 , con sn = n→∞ n→∞ Entonces podemos escribir 0 = s − s = lim (sn+1 − sn ) = lim xn . n→∞ 157 n→∞ Pn i=1 xi . 158 10. ESPACIOS DE HILBERT Y BANACH Una aplicación práctica de este criterio de necesidad nos da a saber cuando una serie no converge. Si se tiene que en una serie lim xn 6= 0, esto implica que la n→∞ P∞ serie i=1 xi no converge. Sin embargo este criterio no es suficiente. Veamos un ejemplo. Ejemplo 10.6. Sea xn = ln(1 + n1 ), tenemos lim xn = 0. Para ver esto n→∞ último, recordemos que el número de Euler e es el lı́mite de la sucesión creciente (1 + n1 )n , por eso (1 + n1 )n ≤ e para todo n ∈ N . Aplicando la función estrictamente monótona ln, se obtiene que ln((1 + n1 )n ) ≤ ln(e) = 1, que implica n ln(1 + n1 ) ≤ 1, y entonces 0 ≤ ln(1 + n1 ) ≤ n1 . Pero lim n1 = 0, y el criterio de comparació n nos n→∞ da que 0 ≤ lim (1 + n1 ) ≤ 0, implicando lim (1 + n1 ) = 0. n→∞ n→∞ Sin embargo, veamos que la serie diverge: n n n X X X 1+i 1 ln( (ln(i + 1) − ln(i)) ln(1 + ) = )= sn = i i i=1 i=1 i=1 = ln(2) − ln(1) + ln(3) − ln(2) + ln(4) − ln(3) + · · · + ln(n + 1) − ln(n) = ln(n + 1) − ln(1) = ln(n + 1), lo cual claramente es una sucesión estrictamente creciente no acotada por arriba, P∞ lo cual implica que i=1 ln(1 + 1i ) = lim sn = lim ln(n + 1) = ∞ n→∞ n→∞ Recordemos algunos de los criterios más importantes de convergencia para series, los cuales pueden ser muy utiles en el futuro. P Critero 10.7 (de P Cauchy). Si ∞ i=1 xi es convergente, entonces la sucesión (sn ) definida por sn = ni=1 xi es de Cauchy. P∞ Es decir, i=1 xi converge sı́ y sólo sı́ para todo ǫ > 0 existe nǫ ∈ N tal que m > n ≥ nǫ implica que k sm − sn k=k xn+1 + xn+2 + · · · + xm k< ǫ. P∞ P∞ Critero 10.8 (de comparación). Si i=1 ai y i=1 bi son series con ai ≥ 0, bi ≥ 0 para toda i, y si existe un número natural n tal que ai ≤ bi para toda i ≥ n, entonces P∞ P∞ Si Pi=1 bi converge, también i=1 ai converge. P ∞ ∞ Si i=1 ai = ∞, entonces i=1 bi = ∞. Critero 10.9 (de cocientes de d’Alambert). Si xi > 0 para toda i, entonces, si existe n ∈ N tal que i ≥ n implica xi+1 ≤q<1 xi P∞ para un q fijo con 0 < q < 1 que no depende dePi, entonces i=1 xi converge. En ∞ xi+1 caso de que i ≥ n e implique xi ≥ 1, la serie i=1 xi es divergente. Si xi+1 =g lim i→∞ xi P∞ entonces i=1 xi es convergente para g < 1 y divergente para g > 1 (incluyendo g = ∞). Critero 10.10 (de la raiz). Si xi > 0 para toda i, entonces, si existe n ∈ N tal que i ≥ n implica √ i xi ≤ q < 1 1. SISTEMAS ORTONORMALES COMPLETOS. 159 P∞ para un q fijo con 0 < q < 1 que no depende dePi, entonces i=1 xi converge. En √ ∞ caso de que i ≥ n e implique i xi ≥ 1, la serie i=1 xi es divergente. Si √ lim i xi = g i→∞ P entonces ∞ i=1 xi es convergente para g < 1 y divergente para g > 1 (incluyendo g = ∞). Vamos a regresar al tema principal de esta sección. Vamos a estudiar los espacios ecuclidianos o unitarios completos. Estos espacios tienen una importancia especial y por eso reciben un nombre especial, se llaman espacios de Hilbert. Los espacios completos, ya sean Euclidianos y Unitarios, asi como los espacio normados, son muy importantes y es por eso que les vamos a dedicar este capitulo. El espacio en donde viven los estados cuánticos son los espacios de Hilbert, formalmente estos se definen como sigue. Definición 10.11. Un espacio Unitario o Euclidiano completo se llama Espacio de Hilbert. Ejemplo 10.12. Como el conjunto de los reales es completo, entonces este espacio con su producto interno canónico, es un espacio de Hilbert. Pero el conjunto de los enteros o los racionales no puede ser de Hilbert ni de Banach. Ejemplo 10.13. Un ejemplo de espacio de Hilbert es el espacio P∞muy conocido L2 definido antes: L2 = (l1 , l2 , · · · ) | li ∈ C tal que i=1 li2 < ∞ con el producto P∞ interno (x, y) = i=1 li m̄i para x = (l1 , l2 , · · · ), y = (m1 , m2 , · · · ). Este espacio es de Hilbert. Su producto interno se denota más comunmente como < x | y >= P∞ i=1 li m̄i , y las li son los coeficientes de Fourier de algún desarrollo en series. Los sistemas ortonormales son los conjuntos más apropiados para describir un espacio de Hilbert. Son base del espacio, pero ademas son ortonormales, con lo que cualquier elemento del espacio puede ser escrito en terminos de él con relativa sencilles. En los espacio Euclidianos o Unitarios podemos hacer la siguiente definición. Definición 10.14. Sea E un espacio Euclidiano (ó Unitario) y H ⊆ E. Sea {xi }i∈I una familia de elementos de H e I una familia de ı́indices. {xi }i∈I se le llama un sistema completo de H si para toda x ∈ H se sigue que x = P i∈I (x, xi ) xi , es decir, la serie converge a x. Se dice que el sistema es ortonormal si 1) El sistema es completo 2) {xi }i∈I es una base ortonormal de H En los espacios de Hilbert siempre existe un conjunto completo que lo genera. Esta propiedad es muy importante y constantemente utilizada por fı́sicos, quı́micos e ingenieros. Para demostrar este teorema, es necesario ver primero la siguiente proposición, la cual enunciaremos sin demostración. Proposición 10.15. Sea E un espacio de Hilbert y {xi }i∈I una base ortonormal. {xi }i∈I es completo sı́ y sólo sı́ se sigue que si x ∈ E y se cumple que (x, xi ) = 0 para todo indice i ∈ I, implica que x = 0. Entonces se puede ver que 160 10. ESPACIOS DE HILBERT Y BANACH Teorema 10.16. Sea E un espacio de Hilbert. Entonces existe un sistema ortonormal completo {xi }i∈I en E. Demostración 10.17. La idea de la demostración es usar la proposición anterior y construir el sistema completo paso paso. En lo que sigue vamos a estudiar la identidad de Parseval. Esta identidad sirve mucho en el cálculo de las normas en espacios Euclidianos y Unitarios. Esta identidad la veremos en la siguiente proposición. Proposición 10.18 (Identidad de Parseval). Sea E espacio Euclidiano o Unitario y sea {xi }i∈I un sistema ortonormal en H ⊂ E. {xi }i∈I es completo sı́ y sólo P sı́ k x k2 = i∈I (x, xi )2 para toda x ∈ H. P Demostración 10.19. ⇒) {xi }i∈I completo implica que para toda x ∈ H x = i∈I (x, xi ) xi , entonces X X X ||x k2 = (x, x) = (x, xi ) xi , (x, xi ) (x, xj ) (xi xj ) = (x, xj ) xj = X i∈I (x, xi ) (x, xj ) δij = i,j∈I X j,i∈I j∈I (x, xi ) 2 i∈I ⇐) Sea {yi }i∈I sistema ortonormal, x ∈ H fijo y yn = yn es perpendicular a x − yn ya que (yn , x − yn ) = n X i=1 (x, yi ) (yi , x) − n X Pn i=1 (x, yi ) (x, yj ) (yi , yj ) = 0. i,j=1 Entonces, por el teorema de Pitágoras ||x||2 = ||x − yn ||2 + ||yn ||2 y esto implica que Esto es ||x||2 − Pn i=1 ||x||2 − ||yn ||2 = ||x − yn ||2 . | (x, yi ) |2 = ||x − yn ||2 . Pero como ||x||2 = esto implica que ∞ X i=1 | (x, yi ) |2 lim ||x − yn ||2 = 0 n⇀∞ esto es lim yn = x = n⇀∞ (x, yi ) yi , i=1 que también podemos escribir como x= ∞ X ∞ X i=1 (x, yi ) yi . Pero (x, xi ) xi = y∞ para (xi )i∈I = (yi )i∈I y esto implica que (xi )i∈I es completo. 1. SISTEMAS ORTONORMALES COMPLETOS. 161 En fı́sica, quı́mica y otras disciplinas cientı́ficas, es muy conveniente escribir las funciones de algún espacio en terminos de funciones conocidas. Generalmente se trabaja en estas diciplinas con espacios completos en donde se puede definir una base ortonormal. Entonces se eligen bases ortonormales que se estudian intensamente para poder deducir despues propiedades generales de las funciones a estudiar o se trabaja simplemente con estas funciones en términos de la base del espacio de Hilbert, usandolas como una buena aproximación de las funciones de interes. Para esto tenemos la siguiente definición. Definición 10.20. Sea {xi }i∈I un sistema ortonormal completo en un espacio de Hilbert E. Entonces · (x, xi )i∈I se llaman coeficientes de Fourier con respecto a x y la base ortonormal. P · i∈I (x, xi ) xi se llama serie de Fourier. Cada x ∈ E en un espacio de Hilbert puede ser representado en una serie de Fourier, en donde esa x puede ser cualquier tipo de elemento, desde polinomios, funciones periodicas, hasta funciones que son la solución de alguna ecuación diferencial de importancia. Notación 10.21. A pesar de que los elementos del espacio de Hilbert o Banach son siempre vectores, a partir de aquı́ vamos a uniformizar la notación, entonces denotaremos los elementos de estos espacios ya no con negritias x, sino solamente como x. De cualquier forma, los espacios de Hilbert que más vamos a usar, los de mayor interes para nosotros, son los espacios vectoriales de funciones. Veamos algunos ejemplos. Ejemplo 10.22. Sea ℜn , con xi = ei , i = 1, · · · , n, la base canónica. Pn Pn 1) Sea x = (l1 , · · · , ln ). Entonces x se pude representar como x = i=1 li ei = i=1 (x · ei ) ei . 2) Para los números complejos C n es análogo. Ejemplo 10.23. Tomemos a L2 con la base xi = ei = 0, · · · , 1 , · · · . i−esimo Sea {xi }i∈I = {xi }i=1,··· ,∞ , entonces {xi }i∈I es un sistema ortonormal completo, ya que si x ∈ L2 , se tiene que (x, xi ) = li , en donde x = (l1 , · · · ) y 2 ∞ 2 2 Σ∞ i=1 | (x, xi ) | = Σi=1 |li | = ||x|| . De la identidad de Parseval se sigue que {xi }i∈I es completo. Ejemplo 10.24. Sea Cℜ el conjunto de las funciones suaves f : ℜ → ℜ. La serie de Taylor de esta función alrededor de 0 esta dada por 1 d2 f 1 d3 f 1 df 2 x + x + x3 + · · · f (x) = f (0) + 1! dx x=0 2! dx2 x=0 3! dx3 x=0 Entonces, toda función suave (de hecho en cualquier punto) se puede representar por un polinomio f (x) = p(x) = a0 + a1 x + a2 x2 + · · · , donde los coeficientes del polinomio estan dados por 1 dj f aj = . j! dxj x=0 162 10. ESPACIOS DE HILBERT Y BANACH Sea (P, ·) el conjunto de los polinomios de grado arbitrario con su producto canónico y {pj }j=0,1,··· = {1, x, x2 , · · · }. Es claro que este conjunto de vectores es un sistema completo en Cℜ . Entonces, toda función suave se puede escribir como ∞ ∞ X X ai xi . p · xi xi = f (x) = i=1 i=1 Ejemplo 10.25. Sea Fp ([0, 2π]) el conjunto de las funciones periódicas en [0, 2π]. Un sistema ortonormal completo de este espacio es 1 1 1 {xj }j∈I = √ , √ sin(jt), √ cos(jt) π π 2π j=1,··· ,n Los coeficientes dados por ( de Fourier estan R 2π (f, cos(jt)) = 0 f cos(jt)dt, R 2π (f, xj )j∈I = (f, sin(jt)) = 0 f sin(jt)dt, Este conjunto es completo ya que si Z 2π Z 0 = (f, xj ) = f cos(jt)dt o 0 2π f sin(jt)dt = 0 0 para todo j = 0, · · · , n, se sigue que f = 0. Ejemplo 10.26. Un ejemplo simple de funciones ortonormales √ sobre las cuales se puede hacer un desarrollo de Fourier son las funciones {1/ 2π exp (imx)}m∈I . Estas funciones forman un sistema ortonormal completo en el intervalo [0, 2π], ya que 1 1 ′ √ exp (imx) , √ exp (im x) = 2π 2π Z 2π 1 exp (imx) exp (−im′ x) dx = δmm′ 2π 0 para m, m′ ∈ Z. Este sistema ortonormal completo es de gran interes por su uso en fı́sica, quı́mica e ingenierı́a. Se tiene que una función en el intervalo [0, 2π] se puede escribir como X f (x) = (f, exp (inx)) exp (inx) , donde n∈I (f, exp (inx)) = 1 √ 2π Z 2π f (x) exp (−inx) dx 0 Ejemplo 10.27. Sea Pn (x) los polinomios de grado n definidos por la fórmula r n dn 2n + 1 1 2 Pn (x) = cn · n x − 1 , con cn = . dx n!, 2n 2 Si integramos por partes n -veces el producto Z 1 Pm (x)Pn (x)dx = δmn −1 donde δmn es la delta de Kroneker, vemos que estas funciones son ortogonales. Como este conjunto de funciones son polinomios de grado arbitrario, el espacio generado por ellas es isomorfo a (P, ·). Entonces se puede demostrar que el conjunto {Pn (x)}n=1,··· es un sistema completo en el espacio de funciones suaves 1. SISTEMAS ORTONORMALES COMPLETOS. 163 f : [−1, 1]→ ℜ. Esto quiere decir que toda función suave f en [−1, 1] se puede escribir como f (x) = ∞ X (f, Pn ) Pn , donde n=0 (f, Pn ) = 2n + 1 2 Z 1 f (x)Pn (x)dx −1 Estos polinomios son llamados polinomios de Legendre. Ejemplo 10.28. Análogamente a los polinomios de Legendre se definen los polinomios asociados de Legendre como l dm+l x2 − 1 2 m/2 m m cn Pl (x) = (−1) 1 − x dxm+l m d P (x) m/2 l = (−1)m 1 − x2 dxm con −l ≤ m ≤ l. Estos polinomios también son ortogonales, haciendo m integraciones por partes se puede ver que ( Z 1 0 si l 6= l′ m m Pl (x)Pl′ (x)dx = 2 (l+m)! si l = l′ −1 2l+1 (l−m)! Análogamente como en el caso de los polinomios de Legendre, este conjunto de funciones también son polinomios de grado arbitrario, asi que el espacio generado por ellas es isomorfo a (P, ·). Entonces se puede demostrar que el conjunto {Plm (x)}n=1,··· es un sistema completo en el espacio de funciones suaves f : [−1, 1]→ ℜ. Esto quiere decir que toda función suave f en [−1, 1] se puede escribir como f (x) = ∞ X (f, Plm ) Plm , donde l=0 (f, Plm ) = 2n + 1 (l − m)! 2 (l + m)! Z 1 −1 f (x)Plm (x)dx Ejemplo 10.29. Finalmente, un ejemplo muy importante es una combinacion del ejemplo 10.26 combinado con los polinomios asociados de Legendre. Si definimos las funciones s 2n + 1 (l − m)! m m m P (cos(θ)) exp (imϕ) Yl (θ, ϕ) = (−1) 4π (l + m)! l se puede ver que el conjunto {Ylm }l,m∈I es un sistema ortonormal completo. A las funcines Ylm (θ, ϕ) se les llama armónicos esfericos. Es fácil darse cuenta que Z 2π Z 1 ′ dϕ Ylm (θ, ϕ) Ylm (θ, ϕ) d (cos (θ)) = δll′ δmm′ ′ 0 −1 y por construcción, este sistema es una base del conjunto de funciones. Este sistema es muy conveniente para escribir funciones que dependen solo de los angulos θ y ϕ, es decir, funciones cuyo dominio se encuentra en la esfera. Por eso los armónicos 164 10. ESPACIOS DE HILBERT Y BANACH esfericos son muy usados en problemas con simetria esférica. Toda función f que solo depende de estos dos angulos se puede escribir como f (x) = ∞ X l X (f, Ylm ) Ylm , donde l=0 m=−l (f, Ylm ) = 2n + 1 (l − m)! 2 (l + m)! Z 2π dϕ Z 1 −1 0 f (θ, ϕ)Ȳlm (θ, ϕ)d (cos (θ)) 2. Operadores Adjuntos. Ahora vamos a trabajar en los espacios normados completos, es decir, en los espacios de Banach. Estos espacios tienen muchas propidades, en ellos viven los operadores, especialmente los operadores cuánticos. Vamos a definir los operadores adjuntos y autoadjuntos y veremos algunas de sus propiedades. La definición de los espacios de Banach es como sigue. Definición 10.30. Un espacio normado, completo, se llama Espacio de Banach. Comentario 10.31. Como ya sabemos, todo Espacio Unitario o Euclidiano es normado, si estos además son completos, son espacios de Banach. Los espacios normados son también métricos, por lo tanto los espacios de Banach son espacios métricos. Más adelante vamos a necesitar el siguiente lema. Lema 10.32. Sea xn una sucesión tal que lim xn = x0 y f una función. Enn⇀∞ tonces f es continua en x0 sı́ y sólo sı́ lim f (xn ) = f (x0 ) n⇀∞ Ejercicio 10.33. Demostrar el lema. Proposición 10.34. Sean (E, || · ||) y (F, || · ||) espacios normados y A : E ⇀ F función lineal. Entonces A es continua sı́ y sólo sı́ es continua en 0 (o en algún punto x ∈ E.) Demostración 10.35. ⇒) Trivial. ⇐) Supongamos que A es continua en 0. Sea xn una sucesión en E tal que lim xn = x. Sea yn := xn − x, esto implica que lim yn = 0. Puesto que A es n⇀∞ n⇀∞ continua en 0, se sigue que lim A (yn ) = A (0) = 0. n⇀∞ Entonces 0 = lim A (xn − x) = lim [A (xn ) − A (x)] , n⇀∞ n⇀∞ se sigue que lim A (xn ) = A (x) n⇀∞ Las funciones lineales acotadas son las de mayor interés en fı́sica. Cuando la función es acotada, esta tiene propiedades especiales. Vamos a definir lo que es una función acotada. F. Definición 10.36. Sean (E, || · ||E ) y (F, || · ||F ) espacios normados y A : E ⇀ A se dice acotada, si sup ||x||E =1 para todo x ∈ E ||A (x) ||F < +∞, 2. OPERADORES ADJUNTOS. 165 Ejemplo 10.37. Sea E = ℜ y A : ℜ ⇀ F , tal que A → A (x) = α · x ∈ F arbitrario ||A (x) || = ||x · α|| = |x| · ||α||. Se sigue que sup ||A (x) || = sup {||α||, −||α||} = ||α|| < +∞ |x|=1 Ejemplo 10.38. Sea C ([a, b]) el conjunto de las funciones continuas en [a, b]. Sea A : C ([a, b]) ⇀ ℜ, tal que Z b f ⇀ A (f ) = f (x) dx. a Entonces ||A (f ) || = || Entonces se tiene que Z b a f (x) dx|| ≤ Z a b ||f (x) ||dx ≤ ||f || (b − a) . sup ||A (f ) || ≤ b − a < +∞, kf k=1 y esto implica que A es acotada. El concepto de acotada para una función queda más claro despues del lema siguiente, el cual enuciamos sin demostración. Lema 10.39. Sean (E, || · ||E ) y (F, || · ||F ) espacios normados y A : E ⇀ F un mapeo lineal. A es acotada sı́ y sólo sı́ existe c ∈ ℜ, tal que ||A (x) ||F ≤ c||x||E Es decir, la función es acotada si la norma de sus valores son menores que la norma del punto en donde se evaluo, para todo punto en el dominio. Las funciones lineales acotadas son continuas, esta propiedad la demostramos en el siguiente teorema. Teorema 10.40. Sean (E, || · ||E ) y (F, ||·||F ) espacios normados y A : E ⇀ F un mapeo lineal. Entonces A es continua sı́ y sólo sı́ A es acotada. Demostración 10.41. . ⇒) Supongamos A continua. En particular es continua en 0, .i.e. para toda ǫ > 0, existe δǫ tal que k A (x)−A(0) kF < ǫ, para toda x se sigue que k x−0 kE < δǫ . Pero A lineal implica A (0) = 0. Tomemos ǫ = 1. Entonces k A (x) kF < 1, para toda x con k x kE < δ1 (*) Sea y δ1 δ1 tal que k y ′ kE = < δ1 . y′ = 2 k y kE 2 Entonces por (*) k A (y ′ ) kF < 1 (**). Además 2 2 k A (y) kF =k A (y ′ ) kF k y kE ≤ k y kE δ1 δ1 por (**). Esto quiere decir que k A (y) kF ≤ c k y kE , con c = para toda y ∈ E. 2 δ1 166 10. ESPACIOS DE HILBERT Y BANACH ⇐) Supongamos A es acotada. Entonces existe c tal que k A (x) k≤ c k x k, x ∈ E. Sea xn una sucesión en E, con lim xn = 0. Entonces n⇀∞ k A (xn ) − 0 kF =k A (xn ) kF ≤ c k xn kE . Pero lim xn = 0 sı́ y sólo sı́ lim k xn kE = 0. Se sigue que n⇀∞ n⇀∞ 0 ≤ lim ||A (xn ) kF ≤ lim c k xn kE = 0 n⇀∞ n⇀∞ o sea lim k A (xn ) kF = 0 pero esto es sı́ y sólo sı́ lim A (xn ) = 0 = A (0) . n⇀∞ n⇀∞ Entonces A es continua en cero por lo que A es continua. El conjunto de funciones lineales acotadas, por tanto continuas, entre espacios normados, forma un espacio vectorial también. Este concepto lo escribiremos en la siguiente definición. Definición 10.42. L (E, F ) = {A | A : E ⇀ F, lineal y acotada.} Ya sabemos que L (E, F ) es un espacio vectorial, asociado a E y F . Existe un caso particular de espacios normados muy interesante. Se puede definir una clase de espacios asociados usando como norma la definición de acotado. Esto se posible porque esta dafinición es a su vez una norma. Esto es Lema 10.43. Sea A ∈ L (E, F ). Se tiene que k A kL = sup k A (x) kF kxkE =1 es una norma en L (E, F ). Ejercicio 10.44. Demostrar el lema. Ejemplo 10.45. Sea E = ℜ2 y sea A la transformación lineal representada por la matriz 2 1 A= 1 0 Encontremos su norma ||A||. Tomemos un vector x cualquiera x = (l1 , l2 ). Se tiene ||A|| = = sup k A (x) k kxkE =1 sup k kxkE =1 = sup kxkE =1 = 2 1 1 0 2 l1 l2 k (2l1 + l2 ) + l12 q 2 2 sup 1 + 4l1 + 4l1 1 − l1 Esta ultima función toma valores maximos en 0.923. Por lo que ||A|| = 0.923. Un resultado que es muy usado en el estudio de las normas de mapeos lineales es el siguiente: Lema 10.46. Sea A operador lineal. Entoces ||A (x)|| ≤ ||A|| · ||x|| 2. OPERADORES ADJUNTOS. 167 Demostración 10.47. Tomemos x ||A (x)|| = ||x|| · A ||x|| ya que A es lineal. Por otro lado es claro que si ||y|| = 1, se tiene que ||A (y)|| ≤ sup ||A (y)|| , kyk=1 por definición de supremo. De donde se sigue que ||A (x)|| ≤ ||x|| · ||A|| Con esta norma es posible entonces demostrar que el espacio L (E, F ) es a su vez espacio de Banach, esto se ve en el siguiente teorema, que no demostraremos. Teorema 10.48. Sea (L (E, F ) , k · kL ) el espacio nomado de las transformaciones lineales y continuas de E a F . Entonces si F es un espacio de Banach, (L (E, F ) , k · kL ) es de Banach. Observemos que k · kL es una norma en el espacio asociado, es una norma para el espacio de funciones lineales. Si E = F , este espacio tiene un trato especial. Podemos definir Definición 10.49. Sea E espacio de Hilbert y L (E) = L (E, E) . Con la norma k A k= sup k A(x) kE , L (E) kxkE =1 es el espacio de Banach de las funciones de E en E lineales y continuas. Ahora vamos a introducir el concepto de operador adjunto. Para esto, veamos que en los espacios de Banach podemos construir un producto escalar. Sea A ∈ L (E) . Podemos construir la forma bilineal B (x, y) = (Ax, y) con x, y ∈ E. Tenemos entonces la siguiente prposición. Proposición 10.50. Si E es un espacio de Hilbert real, entonces B es una forma bilineal continua sobre E × E. (Si E es complejo, B es una forma bilineal continua sobre E, para y ∈ E fijo). Demostración 10.51. B es bilineal ya que A es lineal y (·, ·) es bilineal. B es continua, ya que | B (x, y) | = | (Ax, y) | ≤ ≤ k A (x) k · k y k por la desigualdad de Schwarz, k A k · k x k · k y k por ser A lineal. Entonces sup kxk=1,kyk=1 | B (x, y) |≤ sup kxk=1,kyk=1 kAk·kxk·kyk y como A es acotado, se tiene que sup kxk=1,kyk=1 es decir B también es acotado. | B (x, y) |≤k A k, 168 10. ESPACIOS DE HILBERT Y BANACH Ejemplo 10.52. Sea (ℜn , (·, ·)) con su producto canónico. Sea A la matriz representativa de una transformación lineal. Entonces (Ax, y) = Ax · y. Vamos a tomar como ejemplo a la matriz. A= −1 2 1 0 entonces Ax · y = (−l1 + 2l2 , l1 ) · (m1 , m2 ) = −l1 m1 + 2l2 m1 + l1 m2 para x = (l1 , l2 ) y y = (m1 , m2 ) P∞ Ejemplo 10.53. Sea E = L2 = (l0 , l1 , · · · ) | li ∈ ℜ tal que i=0 li2 < ∞ y supongamos que los números li son los coeficientes de Fourier de alguna función suave f . Un operador seria la derivada de f . Como f es suave, su derivada también tiene una representación de Fourier y por lo tanto la derivada es un operador lineal tal que d/dx = A : E → E. Para ver un ejemplo, supongamos por simplicidad que f (x) = p(x) = a0 + a1 x + a2 x2 + · · · , entonces los coeficientes aj = lj , para toda j = 0, 1, · · · . La derivada de f sera f ′ (x) = p′ (x) = a1 + 2a2 x + · · · , por lo que la tranformación lineal esta dada por A((l0 , l1 , l2 , · · · )) = (l1 , 2l2 , 3l3 , · · · ) . Su representación matricial es entonces A= ya que A 0 0 0 l0 l1 l2 .. . 1 0 0 2 0 0 .. . 0 0 ··· 3 .. . = l1 2l2 3l3 .. . Ejemplo 10.54. Sea Fp ([0, 2π]) el conjunto de las funciones periodicas en [0, 2π]. Como ya vimos un sistema ortonormal completo de este espacio es {xj }j∈I = 1 1 1 √ , √ sin(jx), √ cos(jx) . π π 2π j=1,··· ,n Cualquier función periodica en [0, 2π] puede escribirse como n n 1 X 1 1 X bj cos(jx) f (x) = √ + √ aj sin(jx) + √ π j=1 π j=1 2π y su derivada será n n 1 X 1 X f ′ (x) = √ jaj cos(jx) − √ jbj sin(jx), π j=1 π j=1 2. OPERADORES ADJUNTOS. 169 por lo que la matriz (2n + 1) × (2n + 1) que representa esta transformación es 0 0 0 0 0 0 0 0 0 ··· −1 0 ··· 0 0 0 0 0 −2 0 .. .. .. .. . . . . 0 0 −n (10.1) B= 0 0 0 0 1 0 ··· 0 0 0 0 0 2 0 0 0 .. .. .. .. . . . . 0 0 0 ··· n 0 0 ··· 0 Ejercicio 10.55. Encuentrar la representación matricial de d2 /dx2 en L2 y en Fp . Ejercicio 10.56. Encuentrar la representación matricial de 2d2 /dx2 −3d/dx+ 1 en L2 y en Fp . Con estas bases podemos definir el operador adjunto de una función lineal, su definición formal es como sigue. Definición 10.57. Sea A ∈ L (E) y (Ax, y) = (x, A∗ y), con x, y ∈ E. A A∗ se le llama el operador adjunto de A. Ejemplo 10.58. Vamos a tomar de nuevo el ejemplo 10.52. Como ya vimos, la matrix A cumple que (Ax, y) = (−l1 + 2l2 ) m1 + l1 m2 , donde −1 2 A= , 1 0 x = (l1 , l2 ) y y = (m1 , m2 ). Observemos ahora que de igual manera se tiene (x, AT y) = x · AT y = x · (−m1 + m2 , 2m1 ) = (−l1 + 2l2 ) m1 + l1 m2 , por lo que en este caso A∗ = AT . En general veremos más adelante que para toda matriz simétrica real, su matriz adjunta es la misma matriz original. En el caso de matrices complejas, si la matriz transpuesta conjugada es la misma que la matriz original, ésta es igula a su adjunta. Ejercicio 10.59. Encontrar los operadores adjuntos de las matrices A y B de los ejercicios 10.55 y 10.56. de Definición 10.60. Sea E espacio de Hilbert y A ∈ L (E). Entonces la norma ||A|| = sup |(Ax, y)| . kxk=1 Las principales propiedades de los operadores adjuntos son que ellos son también funciones lineales, su norma es la misma que la de la función original y el adjunto del adjunto es la misma función de salida. Esto lo vemos en la siguiente proposición. Proposición 10.61. Sea A∗ operador adjunto de A. Entonces 1) A∗ ∈ L (E) 2) k A∗ k=k A k ∗ 3) (A∗ ) = A 170 10. ESPACIOS DE HILBERT Y BANACH Demostración 10.62. Demostremos 1) y 3). 1) A∗ es lineal. Sean x, y1 , y2 ∈ E, α1 , α2 , ∈ ℜ o C. Entonces (x, A∗ (α1 y1 + α2 y2 )) = (Ax, α1 y1 + α2 y2 ) = = ᾱ1 (Ax, y1 ) + ᾱ2 (Ax, y2 ) ᾱ1 (x, A∗ y1 ) + ᾱ2 (x, A∗ y2 ) = (x, α1 A∗ y1 ) + (x, α2 A∗ y2 ) Ademas, si 2) se cumple, A∗ es acotado y por tanto continuo. 3) x, (A∗ )∗ y = (A∗ x, y) , por la definición de adjunto = (y, A∗ x) = (Ay, x) por las propiedades de (·, ·) = (x, Ay) ∗ por lo tanto (A∗ ) (y) = A (y) Otras propiedades importantes de los operadores adjuntos se refieren a la suma de adjuntos, el producto por una constante y la composición de adjuntos, estas son. Proposición 10.63. Sean A, B ∈ L (E). α ∈ C ∗ 1) (A + B) = A∗ + B ∗ ∗ 2) (αA) = α · A∗ ∗ 3) (A ◦ B) = B ∗ ◦ A∗ Ejercicio 10.64. Demostrar la proposición Finalmente vamos a definir los operadores autoadjuntos, estos son muy importantes en fı́sica y quı́mica; se definen como sigue. Definición 10.65. Sea E espacio de Hilbert y A ∈ L (E) . · Si A = A∗ , A se llama operador autoadjunto. · Si A = −A∗ , A se llama operador anti-autoadjunto. Los operadores autoadjuntos o anti-autoadjuntos son los más interesantes en fı́sica. En la teorı́a cuántica aparecen estos operadores muy amenudo. Normalmente los operadores diferenciales cumplen con esta propiedad. Veamos algunos ejemplos. Ejemplo 10.66. En los ejemplos 10.1, el operador diferencial B es anti-autoadjunto, ya que B = −B T . Ejemplo 10.67. Sea E espacio euclidiano y f : E ⇀ E lineal y continua. f lo representamos por la matriz A. Si f es autoadjunto, la representación de A cumple con T (Ax, y) = (Ax) y = xT AT y = (x, Ay) = xT Ay. De donde se sigue el siguiente lema. Lema 10.68. En un espacio euclidiano, todo operador autoadjunto tiene una representación con una matriz simétrica, i.e. AT = A. Asi mismo, un operador anti-autoadjunto tiene una representación con una matriz antisimetrica, i.e. AT = −A. Lema 10.69. En un espacio unitario, todo operador autoadjunto tiene una representación con una matriz hermitiana, i.e. ĀT = A† = A. Asi mismo, un operador anti-autoadjunto tiene una representación con una matriz antihermitiana, i.e. A† = −A. 2. OPERADORES ADJUNTOS. Ejercicio 10.70. Demostrar los lemas 10.68 y 10.69. 171 CHAPTER 11 ESPACIOS CON MEDIDA 1. Medida Dentro del análisis, los espacios con medida juegan un papel muy importante. Estos espacios son la base de la teorı́a de probabilidad y estadı́stica, de los espacios L2 , etc. Aqui nos enfocaremos a los espacios L2 , veremos primero su definición y luego aplicaciones a las funciones especiales, que son solución de ecuaciones diferenciales importantes en fı́sica, quı́mica, ingenierı́a, matemámticas, etc. Vamos a introducir la definición de álgebra-σ para poder introducir la definición de medida. Entonces epecemos con la siguiente definición. Definición 11.1. Sea Ω conjunto P (Ω) el conjunto potencia de Ω. Sea F ⊆ P (Ω). F se llama álgebra sobre Ω si 1) φ∈F 2) A ∈ F implica Ac ∈ F 3) A1 , A2 ∈ F implica A1 ∪ A2 ∈ F No hay que confundir el nombre álgebra sobre algún conjunto con el de álgebra en el sentido algebraico. El nombre es el mismo, aunque las definiciones no tienen nada que ver. En adelante no habra confución, ya que el concepto que realmente usaremos en esta sección es el de álgebra-σ, esta se define como sigue. Definición 11.2. F se llama álgebra-σ sobre Ω si valen 1), 2) y 3’) A1 , A2 , · · · ∈ F implica ∪∞ i=1 Ai ∈ F En ocaciones el inciso 1) de la definición de álgebra puede cambiarse por 1’) Ω ∈ F. Obviamente el inciso 1’) y 2) implican 1), por lo que las definiciones son equivalentes. Observemos también que una álgebra−σ sobre Ω es una álgebra sobre Ω. Vamos a ver algunos ejemplos. Ejemplo 11.3. . 1) El conjunto potencia completo es siempre una álgebra o una álgebra-σ sobre el conjunto original, esto es F = P (Ω) es siempre una álgebra σ sobre Ω. 2) El conjunto formado por el conjunto original y el vacio, son una álgebra-σ F = {φ, Ω}. Ejemplo 11.4. F = {φ, A, Ac , Ω} para A 6= φ y A ⊂ Ω es también una álgebraσ sobre Ω. Ejemplo 11.5. Sea Ω = {a, b, c, d}, entonces una álgebra-σ sobre Ω esta dada por F1 = {φ, {a, b}, {c, d}, {a, b, c, d}} . Otra álgebra-σ es F2 = {φ, {a}, {b} , {a, b}, {c, d}, {b, c, d}, {a, c, d}, Ω}, etc. 173 174 11. ESPACIOS CON MEDIDA Ejercicio 11.6. Demostrar que los ejemplos anteriores son algebras sobre Ω. Comentario 11.7. Observemos que en la definición de álgebra, las uniones entre conjuntos ∪ puede cambiarse por intersecciones ∩. Ejercicio 11.8. Demostrar la observación 11.7 anterior. La intersección infinita de algebras-σ, es a su vez álgebra-σ. Esto lo veremos en la siguiente proposición. Proposición 11.9. Sean {Fi }i∈I una familia de algebras-σ e I un conjunto de ı́ndices. Entonces ∩ Fi también es álgebra-σ. i∈I Demostración 11.10. Sean {Fi }i∈I una familia de álgebras-σ, entonces: 1) φ ∈ Fi para toda i ∈ I esto implica que φ ∈ ∩ Fi i∈I 2) A ∈ ∩ Fi sı́ y sólo sı́ A ∈ Fi para toda i ∈ I. Puesto que Fi es una i∈I σ-Álgebra se sigue que Ac ∈ Fi para toda i ∈ I sı́ y sólo sı́ Ac ∈ ∩ Fi . i∈I 3) Sean A1 , A2 ∈ ∩ Fi sı́ y sólo sı́ A1 , A2 ∈ Fi para toda i ∈ I esto implica i∈I que A1 ∪ A2 ∈ Fi para toda i ∈ I sı́ y sólo sı́ A1 ∪ A2 ∈ ∩ Fi , análogicamente para i∈I ∪ Aj j∈I En lo que sigue vamos a introducir las álgebras-σ sobre los espacios métricos. Para esto introduciremos una definición importante, para que con ella podemos definir el álgebra σ de Borel. Definición 11.11. Sea E ⊂ P(Ω). Se define σ(E) = ∩ Fi , donde Fi son i∈I algebras-σ, con E ⊂ Fi . Esta definición pretende construir el álgbra-σ más pequeña de un conjunto arbitrario. La definición anterior puede interpretarse de la siguiente manera. Sea Ω conjunto y E ⊂ P(Ω). Supongamos que E no es álgebra-σ. Entonces, si E es un subconjunto del conjunto potencia donde φ ∈ / E, entonces se construye E ′ = E ∪φ. Si E es tal que no todos los complementos de sus conjuntos pertenecen a E, entonces se construye E” con todos los complementos faltantes y ası́, hasta formar una álgebraσ mı́nima, esta es σ(E). Este proceso equivale a tomar la intersección de todas las algebras σ sobre Ω, es decir, según la definición anterior, equivale a tomar σ(E). Ya estamos listos para introducir las álgebra-σ sobre espacios métricos, las cuales tienen una importancia especial, estas se definen de la forma siguiente. Definición 11.12. Sea (M, ρ) espacio métrico, y sea E = {U ⊆ M | U abierto}. A σ (E) se le llama álgebra-σ de los conjuntos de Borel de M. Ejemplo 11.13. Sea (ℜ, ρ) el espacio métrico real. Entonces E = {U ⊆ ℜ | U intervalo abierto de ℜ} . Como los complementos de los intervalos abiertos son uniones de intervalos cerrados, σ (E), y por tanto, los conjuntos de borel de los reales, estará formado por el conjunto de los intervalos abiertos, unión los intervalos cerrados, unión todos los números reales, unión el conjunto vacio. Ejemplo 11.14. Sea X = {a, b}. Un ejemplo de conjuntos abiertos (topologicos) de X son τX = {φ, {a} , {a, b}}. Entonces los conjunto de Borel de τX son σ(τX ) = {φ, {a} , {a, b} , {b}}. 1. MEDIDA 175 Ejercicio 11.15. Sea E = {bolas en ℜn }. Construir σ (E) y demostrar que es una álgebra-σ explı́citamente. Ahora ya estamos en posición de definir espacio medible y medida. Como veremos, en estos espacios podemos definir funciones especiales ortogonales y series de Fourier con estas funciones. Vamos a iniciar con los espacios medibles. Definición 11.16. Sea Ω un conjunto. A la upla (Ω, F ) con Ω 6= φ y F álgebra−σ sobre Ω se le llama espacio medible. Definición 11.17. Una función µ : F → [0, ∞) se le llama medida si 1) µ (φ) = 0 2) Para una secuencia A1 , A2 , · · · , ∈ F tal P que ∞ Ai ∩ Aj = φ i 6= j, se sigue µ (∪∞ i=1 Ai ) = i=1 µ (Ai ) . Definición 11.18. Al triplete de (Ω, F , µ) con (Ω, F ) espacio medible y µ medida, se le llama espacio con medida. Algunas de las propiedades más importantentes de los espacios con medida son las siguientes. Lema 11.19. Una medida µ sobre (Ω, F ) es finitamente aditiva. Demostración 11.20. Sean A1 , · · · , An ∈ F disjuntos con Ai = φ para toda i = n + 1, · · · . Se sigue entonces que ∪ni=1 Ai = ∪∞ i=1 Ai , esto implica que µ (∪ni=1 Ai ) = µ (∪∞ i=1 Ai ) = ∞ X µ (Ai ) = i=1 n X µ (Ai ) i=1 Comentario 11.21. La medida µ > 0 por definición. Proposición 11.22. Sean A, B ∈ F, µ medida sobre (Ω, F ), espacio medible. Entonces a) µ (A ∪ B) ≤ µ (A) + µ (B) b) Si A ⊆ B, se sigue µ (A) ≤ µ (B) c) Si A ⊆ B con µ (A) < ∞ se sigue que µ (B\A) = µ (B) − µ (A) Demostración 11.23. Primero demostremos b) b) A ⊆ B implica que B = A ∪ (B\A). Se tiene que µ (B) = µ (A ∪ (B\A)) Entonces µ (B) = µ (A) + µ (B\A) . Pero µ ≥ 0 implica µ (B) ≥ µ (A) a) A, B ∈ F A ∪ B = A ∪ (B\A) Entonces µ (A ∪ B) = µ (A) + µ (B\A) por lema 0.41. Pero B\A ⊆ B. Por b) µ (B\A) ≤ µ (B) lo que implica que µ (A ∪ B) ≤ µ (A) + µ (B) . c) µ (B) = µ (A ∪ (B\A)) = µ (A) + µ (B\A), entonces µ (B\A) = µ (B) − µ (A) 176 11. ESPACIOS CON MEDIDA Veamos algunas medidas especiales que usaremos en el resto del texto. Unas medidas muy importantes son la medida de probabilidad y la medida de Dirac. Su definición formal es como sigue. Definición 11.24. Una medida tal que µ (Ω) = 1 se llama medida de probabilidad. Veamos el ejemplo de la medida de Dirac. Ejemplo 11.25. Medida de Dirac. Sea (Ω, F ) espacio medible y δx tal que δx : F ⇀ [0, ∞), con 1 si x ∈ A δx (A) := 0 si x ∈ Ac para toda A ∈ F. Veamos que δx es una medida. Primero es fácil ver que δx (Ω) = 1, por lo que δx es una medida de probabilidad, además, es claro que δx (A) ≥ 0 para toda A ∈ F. Sean A1 , A2 , · · · , Ai , · · · ∈ F con Ai ∩ Aj = φ i 6= j, entonces δx ∪ Ai = 1 i∈I sı́ y sólo sı́ x ∈ ∪i∈I Ai , esto es sı́ y sólo sı́ existe algún Ai tal que x ∈ Ai , pero no en los restantes Aj , j 6= i, esto implica que X ∞ δx (Ai ) = 1 δx ∪ Ai = i∈I i=1 Por otro lado, δx (∪i∈I Ai ) = 0, sı́ y sólo sı́ x ∈ (∪i∈I Ai )c , esto es sı́ y sólo sı́ x ∈ ∩i∈I Aci , sı́ y sólo sı́ x ∈ Aci para toda i, lo que implica que δx (Ai ) = 0 para toda i. Por lo tanto X ∞ ∞ X δx (Ai ) δx (Ai ) = 0, i.e. δx ∪ Ai = i=1 i∈I i=1 Ejemplo 11.26. Sean ℜ los reales y F los conjuntos de Borel en los reales. Entonces la función l1 : F → ℜ+ tal que l1 es la longitud del intervalo, es decir l1 ((a, b)) = b − a, es una medida. Veamos esto: l1 (φ) = 0, ademas, si A1 y A2 son dos intervalos disjuntos, se tiene que l1 (A1 ∪ A2 ) = l1 ((a, b) ∪ (c, d)) = d − a − (c − b) = b − a + d − c = l1 ((a, b)) + l1 ((c, d)). A esta medida se le llama la medida de Lebesgue. Ejemplo 11.27. Sea Ω = {a, b, c, d} y F = {φ, {a}, {b} , {a, b}, {c, d}, {a, c, d}, {b, c, d}, Ω} . Entonces la función µ : F → [0, ∞), tal que µ(A) = número de elementos de A. Esto implica que µ(φ) = 0 y µ({a} ∪ {b}) = µ({a, b}) = 2 = µ({a}) + µ({b}). Además µ({a} ∪ {c, d}) = µ({a, c, d}) = 3 = µ({a}) + µ({c, d}), µ({b} ∪ {c, d}) = µ({b, c, d}) = 3 = µ({b}) + µ({c, d}), µ({a} ∪ {b, c, d}) = µ({a, b, c, d}) = 4 = µ({a}) + µ({b, c, d}). Por otro lado, µ({a} ∪ {a, b}) = µ({a, b}) = 2 < µ({a}) + µ({a, b}), etc. Por tanto µ(A) es una medida. 2. INTEGRACIÓN EN ESPACIOS CON MEDIDA 177 Ejemplo 11.28. Si en el ejemplo anterior definimos µ : F → [0, ∞), tal que µ(A) =número de elementos de A/4, µ(A) se vuelve una medida de probabilidad. Ejemplo 11.29. Sea (Ω, F ) espacio medible (xk )k=1,··· ,∞ una serie en Ω y P∞ (ck )k=1···∞ una sucesion de números (ck )k=1,··· ,∞ ⊆ [0, ∞). Tomamos µ = k=1 ck δxk . P∞ Entonces µ es una medida llamada la medida discreta. Si además k=1 ck = 1, µ se llama medida discreta de probabilidad. P∞ Ejercicio 11.30. Demuestren que µ = k=1 ck δxk es una medida. Ejercicio 11.31. Sea (ℜ, E) espacio medible, A ⊂ E los conjuntos deR Borel de ℜ y h : ℜ → ℜ real, positiva e integrable en A. Demuestren que µ(A) = A h dx es una medida. 2. Integración en espacios con Medida En esta sección veremos como se puede integrar en espacios con medida. Realmente estamos interesados en la integración de Lebesgue y para ello tenemos que introducir algunas definiciones. Empecemos por la definición de función indicadora. Definición 11.32. Sea δx (A) la medida de Dirac. La función indicadora χA se define como χA : Ω ⇀ [0, +∞), x ⇀ χA (x) = δx (A) . De hecho, toda función para la cual la imagen inversa de los conjuntos de Borel es un elemento de la álgebra-σ en el conjunto, se le llama función medible, formalmente esta se define como Definición 11.33. Sea (Ω, F ) espacio medible. A toda función f : Ω ⇀ ℜ se le llama función medible, si f −1 (X) ∈ F, para toda X ∈ E. Ejemplo 11.34. Vamos a ver aqui que las funciones indicadoras χA son funciones medibles. Veamos primero que, para una A fija se tiene que χA (x) = δx (A) : Ω → ℜ. Observemos que esta función es 1 para toda x ∈ A, y 0 de lo contrario. De hecho χA es una función escalón. Sea X ∈ E, y veamos cuanto vale χ−1 A (X). Se tiene que, X = {1} ó X = {0}. Entonces −1 c χ−1 A (1) = A ∈ F y χA (0) = A ∈ F por lo que χA es una función medible. Finalmente, la integración en espacios con medida se hara en base a las funciones simples, su definición es Definición 11.35. Sea (Ω, F ) espacio medible y sea fn una función medible ahı́. fn se dice simple si existen a1 , · · · , an ∈ ℜ con n ≥ 1, A1 , · · · , An ∈ F tal que fn = n X a i χA i i=1 en el espacio medible (Ω, F ) . Esto quiere decir que toda función simple se puede escribir como la superposición de funciones indicadoras por cada intervalo. Las funciones simples estan formadas por porsiones constantes en cada intervalo Ai para i = 1, · · · , n. Lo más interesante de las funciones medibles es que ellas pueden escribirse como el lı́mite de funciones simples. Esto lo veremos en la siguiente proposición. 178 11. ESPACIOS CON MEDIDA Proposición 11.36. Sea f medible, f ≥ 0. Entonces existe (fn )n=1,...,∞ con 1) fn : Ω → ℜ para todo n 2) fn simple para todo n 3) fn > 0 para todo n 4) fn ≤ fn+1 para todo n 5) f = lim fn n→∞ Demostración 11.37. Vamos a construir las funciones (fn )n=1,··· ,∞ . Sean las funciones 4n X i−1 χf −1 ([ i−1 + 2n χf −1 ([2n ,∞)) fn = i n 2n , 2n )) 2 i=1 las cuales se puede también descomponer en sus partes. Sea ω ∈ Ω, se obtiene: i−1 i n para i−1 2n 2n ≤ f (ω) < 2n con i = 1, · · · , 4 fn (ω) = n n 2 para f (ω) ≥ 2 Claramente esta función cumple con las condiciones 1) a 4)de la proposición. i , esto implica que Queda por demostrar que f = lim fn . Sea ω ∈ f −1 i−1 2n , 2n fn (ω) = i−1 2n , n→∞ por la definición de fn . Se tiene que: i i−1 ≤ f (ω) < n , 2n 2 y por tanto 0 ≤ |fn (ω) − f (ω)| ≤ 1 2n lo que implica que lim fn = f (ω) n→∞ Vean la figura 1 donde se muestra un ejemplo de las funciones simples f . Definición 11.38 (Integral de Lebesgue de funciones simples). Sea (Ω, F , µ) espacio con medida y fn : (Ω, F ) ⇀ (ℜ, E), función simple donde E es la álgebra-σ de Borel de ℜ. Sea Ak = {x ∈ Ω | fn (x) = ck ∈ ℜ} k = 1, · · · , n. Se define Z n X fn (ω) µ (dω) := ck µ (Ak ) Ω k=1 En general, puede tomarse cualquier secuencia (Bi )i=1,...,n de elementos de F . La integral de Lebesgue tiene varias propiedades, vamos a enumerar y demostrar algunas de ellas. Proposici ón 11.39. Sean f1 ,yR f2 funciones simples. Entonces R R f µ(dω) f µ(dω) + α 1) (α1 f1 + α2 f2 ) µ(dω) = α 2 1 2 1 R R 2) Si 0 ≤ f1 ≤ f2 , entonces f1 µ(dω) ≤ f2 µ(dω) Es decir, la integral es un funcional lineal y monotona. Demostración 11.40. Solo veremos una idea de la demostración. 1) Se sigue por construcción. Sea kX 1 +k2 1 ≤ i ≤ k1 b1i f1 + f2 = bi = bi χBi . 2 bi − k1 k1 + 1 ≤ i ≤ k2 + k1 i=1 2. INTEGRACIÓN EN ESPACIOS CON MEDIDA 179 4.5 f f1 4 3.5 3 f 2.5 2 1.5 1 0.5 0 -1 0 1 2 3 4 5 6 5 6 x 4.5 f f2 4 3.5 3 f 2.5 2 1.5 1 0.5 0 -1 0 1 2 3 4 x Figure 1. La función f = 18 x3 − x2 + 2x + 23 (linea continua) y sus correspondientes funciones simples (cruces) f1 , en al figura de arriba y f2 , en al figura de abajo. Las fn se aproximan a la función original f para n grande. En estas dos figuras esto es muy notorio. entonces Z (f1 + f2 ) µ(dω) = kX 1 +k2 bi µ (Bi ) i=1 = k1 X k2 X b2i µ Bi2 b1i µ Bi1 + Zi=1 Z i=1 = f1 µ(dω) + f2 µ(dω). 2) Tenemos f2 − f1 ≥ 0, f2 = (f2 − f1 ) + f1 180 11. ESPACIOS CON MEDIDA Entonces 0≤ pero R Z f2 µ(dω) = Z (f2 − f1 ) µ(dω) + (f2 − f1 ) µ(dω) ≥ 0 por lo tanto R f2 µ(dω) ≥ R Z f1 µ(dω), f1 µ(dω). Después de esta proposición ya estamos en posición de definir la integral de Lebesgue. Esta se realiza utilizando funciones simples, esto es: Definición 11.41 (Integral de Lebesgue). Sea f : (Ω, F ) ⇀ (ℜ, E) función y (Ω, F ) espacio medible y E el álgebra-σ de Borel. Sea (fk )k=1,··· ,n una serie de funciones simples, tal que fk ≤ fk+1 para toda k, y f = lim fk . Entonces: k→∞ Z f (ω) µ (dω) := lim n→∞ Z fn (ω) µ (dω) . Debido a la proposición anterior, aqui también se sigue que la integral es lineal y monótona. El teorema más importante correspondiente a la integral de Lebesgue, el cual daremos sin demostración, es el siguiente. Teorema R 11.42 (de Lebesgue). Sean g, fn : (Ω, F ) ⇀ (ℜ, E) tal que | fn |≤ g para toda n, gµ(dω) es finita y f = lim fn . Se sigue que n→∞ Z es decir, f es integrable y R f µ(dω) = lim n→∞ Z fn µ(dω) f µ(dω) es finita. Para comprender el teorema y aprender a manipular la integral de Lebesgue, es conveninte ver algunos ejemplos simples. Ejemplo 11.43. Sea (ℜ, E) el espacio medible con E el álgebra-σ de Borel y l1 : E ⇀ [0, +∞) tal que l1 ((a, b)) = b − a (con a < b por facilidad) es la medida de Lebesgue. Entonces, si f : ℜ ⇀ ℜ, se tiene Z Z b f (x) dx f (x)l1 (dx) = a (a,b) Vamos a explicar este punto. Sabemos que existe una serie de funciones simples fk con f = lim fn tal que en los intervalos Ak , la función sea constante, es decir, n→∞ Ak = (ak , bk ) = {x ∈ Ω | fk (x) = ck ∈ ℜ}. Se sigue que Z Z f (x) l1 (dx) = lim fn (x) l1 (dx) n→∞ (a,b) = = lim n→∞ lim n→∞ n X k=1 n X k=1 ck l1 (Ak ) fk (x) (bk − ak ) = Z b f (x) dx. a Es decir, la integral de Lebesgue con la medida de Lebesgue es la integral de Riemann. 3. ESPACIOS Lp 181 Ejemplo 11.44. Sea (ℜ, E) el R espacio medible con E el álgebra-σ de Borel y µ : E ⇀ [0, +∞) tal que µ (A) = A h dx con h : ℜ ⇀ ℜ. Entonces, si f : ℜ ⇀ ℜ, se tiene Z Z b f (x)µ (dx) = f (x) h(x)dx (a,b) a Tomemos de nuevo la serie de funciones simples fk con f = lim fn tal que en n→∞ los intervalos Ak , la función sea constante, es decir, Ak = (ak , bk ) = {x ∈ Ω | fk (x) = ck ∈ ℜ}. Se sigue que Z Z f (x) µ (dx) = lim fn (x) µ (dx) n→∞ (a,b) = = = lim n→∞ lim n→∞ lim n→∞ n X k=1 n X k=1 n X k=1 ck µ (Ak ) ck Z bk h (x) dx ak ck lim m→∞ m X h (xl ) l=1 (bk − ak ) . m Observemos que m se puede cambiar por n, ya que los dos van a infinito, aún más, si adaptamos la segunda suma a la primera poniendo los puntos xl ’s junto con los ck ’s, ya que los dos son contados por un número infinito de puntos, obtenemos: Z n n X X (bk − ak ) f (x) µ (dx) = lim ck h (xl ) n→∞ n (a,b) = = lim n→∞ Z b k=1 n X l=1 fk (x) h (xk ) k=1 (bk − ak ) n f (x) h(x) dx. a Es decir, la integral de Lebesgue con la medida µ(A) = Riemann con un peso. R A h dx es la integral de Ejercicio 11.45. Realizar la misma integral pero con la medida de Dirac. 3. Espacios Lp Finalmente vamos a introducir la definición de espacios Lp , para despues dedicarnos a estos espacios con p = 2. Para eso, vamos a introducir una relación de equivalencia en los espacios con medida para poder definir los espacios que queremos. Definición 11.46. Sea (Ω, F ) espacio medible y µ medida en (Ω, F ) . Se define L0 (Ω, F ) = {f : Ω ⇀ ℜ | f es función medible}, i.e. f −1 (X) ∈ F, para toda X ∈ E. Se puede ver entonces que el espacio L0 forma un espacio vectorial con las operaciones canonicas entre funciones. Es decir: Proposición 11.47. L0 es un espacio lineal. 182 11. ESPACIOS CON MEDIDA Los espacios Lp se basan en el hecho de que los espacios de todas las funciones medibles se pueden separar en clases de equivalencia. La relación de equivalencia que separa estos espacios en clases se introduce en la siguiente definición. Definición 11.48. Sean f, g, ∈ L0 y µ medida. Sea ∼µ la relación f ∼µ g si µ ({x ∈ Ω | f (x) 6= g(x)}) = 0, con µ medida en (Ω, F ) . Proposición 11.49. La relación ∼µ es de equivalencia Demostración 11.50. Veamos las tres condiciones de relación de equivalencia 1) f ∼µ f ya que µ ({x ∈ Ω | f (x) 6= f (x)}) = µ(φ) = 0 2) f ∼µ g implica que µ ({x ∈ Ω | f (x) 6= g(x)}) = 0, por tanto g ∼µ f 3) Sean f, g, h ∈ L0 tales que f ∼µ g y g ∼µ h. Denotemos por A = B M = = {x ∈ Ω | f (x) = g(x)}, {x ∈ Ω | g(x) = h(x)} {x ∈ Ω | f (x) = h(x)} Como f ∼µ g y g ∼µ h se sigue que µ(Ac ) = 0 y µ(B c ) = 0. De lo anterior se tiene que f = h sı́ y sólo sı́ f = g y g = h asi que M = A ∩ B lo que implica que M c = Ac ∪ B c . Entonces µ ({x ∈ Ω | f (x) 6= h(x)}) = µ(M c ) = µ (Ac ∪ B c ) ≤ µ (Ac ) + µ (B c ) = 0 lo que implica que f ∼µ h. Con esto ya podemos introducir la definición de los espacios Lp , su definición se basa en el conjunto de clases de equivalencia con la relación ∼µ . Se definen como sigue. Definición 11.51. Sea L0 (Ω, F , µ) = L0 (Ω, F ) / ∼µ . Se define Z Lp = {f ∈ L0 (Ω, F , µ) | f (x) |p µ (dx) , es finita }, Ω de tal forma que Lp es un espacio normado, con la norma k f kp = R Ω 1/p | f |p µ(dx) La propiedad más importante de estos espacios es que son espacios normados y completos, o sea, de Banach. Vamos a enunciar este importante teorema sin demostración: Teorema 11.52. Para todo 1 ≤ p < ∞, Lp es lineal y completo, es decir, Lp es espacio de Banach. Los casos especiales más interesantes son sin duda p = 1, L1 = Espacio de las funciones integrables. p = 2, L2 = Espacio de Banach de las funciones cuadraticas integrables bajo la medida µ. Estos dos espacios son de suma importancia en fı́sica, quı́mica, matemáticas, mecánica cuántica, etc. Particularmete, en L2 también es posible defirnir un producto interno, convirtiendo estos espacios en espacios de Hilbert. Esto se ve en la siguiente proposición. Proposici ón 11.53. L2 R (f, g) = Ω f (x) g (x) µ (dx) es un espacio de Hilbert con el producto escalar 4. DESARROLLO DE FOURIER EN L2 183 Demostración 11.54. Claramente las propiedades de producto escalar se cumplen para (f, g) . Como LP es de Banach, es completo y lineal, por lo tanto es espacio de Hilbert con (f, g) su producto interno. Observemos que en L2 la norma esta dada por k f kL2 = Z 1/2 | f | µ(dx) = [(f, f )]1/2 2 Ω por lo que, la norma y el producto interno en estos espacios, son compatibles. Las generalización a espacios complejos se sigue del hecho que f = u + iv , en tal caso, usando la linealidad de la integral de Lebergue, se siguen las mismas propiedaes equivalentemente como para f real. 4. Desarrollo de Fourier en L2 Los espacios de interes para la fı́sica, como ya dijimos, son los espacios L2 . En estos espacios se definen las series de Fourier, entre otras. Vamos a dedicarles esta sección dada su importancia. Empecemos con la siguiente definición. Definición 11.55. Sea L2 = L2 (Ω, F , µ) espacio de Hilbert tal que existe un sistema (fi )i=1,...,n ortonormal completo. Sea f ∈ L2 , cuyo coeficiente de Fourier estan dados por Z ai = (f, fi ) = A la serie f = P∞ i=1 f (x) fi (x) µ (dx) . Ω ai fi se le llama serie de Fourier de f. Ejemplo 11.56. Consideramos el espacio n L2 ([−π, π]) con la medidaode Lebesgue. Como ya hemos visto, el sistema Tn = √1 , √1 π 2π sin(kx), √1 π cos(kx) k=1,··· ,n es ortonormal y es completo en T ([−π, π]) = {f | f (x) = n X ak cos (kx) + bk sin (kx)} k=0 llamado el conjunto de las funciones trigonométricas. En general (Tn )n=1,...,∞ es un sistema ortonormal completo en Lp . L2 . Ejercicio 11.57. Demuestre que (Tn )n=1,...,∞ es un sistema ortonormal en Definición 11.58. Sea E espacio de Hilbert y E una álgebra-σ sobre E. Se define B (E, E) = {f : (E, E) ⇀ ℜ | f es medible y acotada} Cℜ (E) = {f : E ⇀ ℜ | f es continua y acotada} Se puede mostrar que Cℜ (E) ⊂ B (E, E) ⊂ Lp , y ambas son subconjuntos lineales de Lp . Es más, estos espacios son densos, por lo que podemos acercarnos tanto como queramos por medio de una base ortonomal completa a cada elemento de estos espacios, esto se ve en la siguiente proposición. Proposición 11.59. Sea E espacio de Hilbert y E los conjuntos de Borel de los reales. 1) B (E, E) es denso en Lp 2) Cℜ (E) es denso en Lp 184 11. ESPACIOS CON MEDIDA Con esta proposición se puede mostrar que T ([−π, π]) es denso en Lp ([−π, π]). Unos ejemplos de mucha importancia para la teorı́a de ecuaciones diferenciales son los siguientes. Ejemplo 11.60. El sistema 1 ikx fk = √ e 2x k∈Z es un sistema ortonormal completo en el espacio L2 complejo ([−π, π]) . Ejemplo 11.61. El sistema ( ) r n dn 1 2n + 1 2 Pn = cn · n x − 1 , con cn = dx n! 2n 2 n∈N es un sistema ortonormal completo en L2 ([a, b]) con la medida de Lebesgue. A estos polonomios se les llama Polinomios de Legendre. Ejemplo 11.62. Tomemos L2 (ℜ, µ) con la medida Z h (x) dx, µ (A) = A A ∈ E con h (x) = e−x . Entonces el sistema 1, x, x2 , · · · es un sistema ortonormal completo en este espacio. Si 2 Hn = c k e x 2 dn −x2 e dxn n ≥ 0, L ({H0 , · · · , Hn }) = L A Hn se les llama los Polinomios de Hermite. 1, x, · · · , x2n . 5. Funciones Especiales Existen una serie de funciones que tienen caracteristicas muy particulares. Lo importante de estas funciones es que son solución de diferentes ecuaciones diferenciales muy comunes en fı́sica, quı́mica, ingenierı́a, etc., por eso su estudio requiere de una sección aparte. Hay una forma de estudiar todas estas funciones especiales de una forma unificada, es la versión que adoptaremos aqui. Todas estas funciones tienen caracteristicas comunes y adoptando esta versión unificada es posible estudiar sus caracteristicas comunes de una sola vez. Definición 11.63 (Fórmula de Rodriques). Sea (11.1) Pn (x) = cn 1 dn (hsn ), h dxn tal que 1) Pn es un polinomio de grado n y cn una constante. 2) s(x) es un polinomio de raices reales de grado menor o igual a 2 3) h : ℜ → ℜ es una función real, positiva e integrable en el intervalo [a, b] ⊂ ℜ, (llamada peso) tal que h(a)s(a) = h(b)s(b) = 0. Con esta definición es posible definir la mayoria de las funciones especiales más comunes. Daremos algunos ejemplos. 5. FUNCIONES ESPECIALES 185 2 Ejemplo 11.64. Los polinomios de Hermite Hn estan dados por h = e−x , s = −1, cn = 1, en el intervalo (−∞, ∞), es decir n Hn (x) = (−1) ex 2 dn −x2 (e ) dxn por lo que los primeros términos serán: H0 = 1, H1 = 2x, H2 = 2 − 4x2 , H3 = 4x(−3 + 2x2 ), H4 = 12 − 48x2 + 16x4 , etc. Ejemplo 11.65. q Los polinomios de Legendre Pn están dados por h = 1, s = 1 2 1 − x , cn = n! 2n 2n+1 2 , en el intervalo [−1, 1], es decir n n (−1) dn ( 1 − x2 ) n n 2 n! dx por lo que los primeros términos serán: P0 = 1, P1 = x, P2 = 12 3x2 − 1 , P3 = 12 x(5x2 − 3), P4 = 18 35x4 − 30x2 + 3 , etc. Pn (x) = Ejemplo 11.66. Los polinomios de Laguerre Ln dados por h = e−x , s = x, cn = 1, en el intervalo (−∞, ∞), es decir Ln (x) = ex dn n −x (x e ) dxn por lo que los primeros términos serán: L0 = 1, L1 = −x + 1, L2 = x2 − 4x + 2, L3 = −x3 + 9x2 − 18x + 6, L4 = x4 − 16x3 + 72x2 + 96x + 24, etc. Ejercicio 11.67. Escriba los primeros 4 términos y de una ecuación diferencial caracteristica de los polinomios de Tchebichef de primera clase Tn dados por h = (1 − x2 )−1/2 , s = 1 − x2 , en el intervalo [−1, 1]. Ejercicio 11.68. Escriba los primeros 4 términos y de una ecuación diferencial caracteristica de los polinomios de Jacobi Pnν,µ dados por h = (1 − x)ν (1 + x)µ , ν > −1, µ > −1, s = 1 − x2 , en el intervalo [−1, 1] . Ejercicio 11.69. Escriba los primeros 4 términos y de una ecuación diferencial caracteristica de los polinomios de Gegenbauer Cnλ dados por h = (1 − x2 )λ−1/2 , λ > − 21 , s = 1 − x2 , en el intervalo [−1, 1] . Ejercicio 11.70. Escriba los primeros 4 términos y de una ecuación diferencial caracteristica de los polinomios de Tchebichef de segunda clase Un dados por h = (1 − x2 )1/2 , s = 1 − x2 , en el intervalo [−1, 1] . Todos estos polinomios especiales tienen la caracteristica de formar sistemas completos en el espacio de funciones suaves. En fı́sica y quı́mica, las ecuaciones 186 11. ESPACIOS CON MEDIDA diferenciales anteriores son muy comunes y como sus soluciones forman sistemas completos, podemos escribir las funciones suaves como combinación lineal de estas funciones especiales. Esta proceso es muy conveniente cuando se trabaja con estas ecuaciones diferenciales. Para ver que estas forma sistemas completos, mostraremos primero una serie de proposiciones. Proposición 11.71. Sea s, polinomio de grado dos y h función real, positiva e integrable. Denotemos por pk a un polinomio arbitrario de grado k, entonces (11.2) dm (hsn pk ) = hsn−m pk+m dxm Demostración 11.72. Primero observemos que para n = 1 en (11.1), se cumple que ds 1 dh 1 d (hs) = c1 s + c1 , P1 (x) = c1 h dx h dx dx de donde que dh ds 1 s . P1 − =h dx c1 dx Ahora tomemos la derivada d dh ds dpk (hsn pk ) = sn pk + hnsn−1 pk + hsn dx dx dx dx ds 1 dpk n−1 P1 + (n − 1) = s h pk +s . c1 dx dx Como pk es cualquier polinomio de grado k y por definición P1 es un polinomio de grado 1 y s es un polinomio de grado 2, se tiene que d (hsn pk ) = hsn−1 pk+1 . dx Si se sigue derivando la expresión entre parentesis y siguiendo los mismos pasos, se llega al resultado. Observemos que del resultado anterior se tiene que 1 dn (hsn ) = cn pn . h dxn De aqui es entonces fácil demostrar que P n = cn Proposición 11.73. Todas las derivadas x = a y x = b. dm n dxm (hs ) con m < n, son cero en Demostración 11.74. Como dm (hsn pk )|x=a = h(a)sn−m (a)pk+m = 0. dxm Usando las prorposiciones anteriores ya podemos demostrar el teorema principal de esta sección que afirma que todo polinomio deducible de una fórmula de Rodrigues, forma un conjunto ortonormal completo (una base ortonormal) en el espacio de Hilbert correspondiente. 5. FUNCIONES ESPECIALES 187 Teorema 11.75. Sea Pn (x) = cn 1 dn (hsn ). h dxn Entonces los polinomios {Pn }n=1,··· forman un sistema ortonormal completo en L2 ([a, b]) en el intervalo [a, b], con el producto interno Z f (x)g(x)h(x)dx. (f, g) = A Demostración 11.76. Es claro que L ({P0 , · · · , Pn }) = L ({1, x, · · · , xn }) , ya que ambos forman una base del espacio de polinomios de grado n. Veamos que {Pn }n=1,··· son ortonormales en L2 ([a, b]) con el producto interno Z Pn (x)Pm (x)h(x)dx. (Pn , Pm ) = A Veamos primero que (pn , Pm ) = 0 para todo polinomio pn con n < m. Como Z dm (pn , Pm ) = cm pn (x) m (hsm )dx dx A integramos por partes m veces, como todas las derivadas de hsn son cero, se tiene que Z dm pn dx = 0. (pn , Pm ) = cm h(x)s(x)m dxm A Ahora bien, si en la integración anterior n = m, obtenemos: Z Z n n d pn (11.3) (pn , Pn ) = cn h(x)s(x) dx = cn n! an h(x)s(x)n dx, dxn A A donde an es el coeficiente principal del polinomio pn . Podemos escoger Z 1 = n! an h(x)s(x)n dx cn A y entonces se tiene que (Pn , Pm ) = δnm . Es decir, basta con definir el producto interno para cada base de polinomios, para poder escribir la serie de Fourier correspondiente. Demos algunos ejemplos. 2 Ejemplo 11.77. Los polinomios de Hermite Hn estan dados por h = e−x , s = −1, cn = 1, en el intervalo (−∞, ∞), su producto interno esta definido por Z ∞ 2 aj = (f, Hj ) = f (x)Hj (x)e−x dx −∞ entonces, cualquier función se puede escribir como f = P∞ i=1 a i Hi . Ejemplo 11.78. Los polinomios de Legendre Pn estan dados por h = 1, s = n 1−x2 , cn = (−1) / (2n n!), en el intervalo [−1, 1], su producto interno esta definido por Z 1 f (x)Pj (x)dx aj = (f, Pj ) = −1 entonces, cualquier función se puede escribir como f = P∞ i=1 ai Pj 188 11. ESPACIOS CON MEDIDA Ejemplo 11.79. Los polinomios de Laguerre Ln dados por h = e−x , s = x, cn = 1, en el intervalo (−∞, ∞), su producto interno esta definido por Z ∞ f (x)Lj (x)e−x dx Ln (x) = aj = (f, Lj ) = −∞ entonces, cualquier función se puede escribir como f = P∞ i=1 ai L i Ejercicio 11.80. Defina un producto interno de los polinomios de Tchebichef de primera clase Tn . Ejercicio 11.81. Defina un producto interno de los polinomios de Jacobi P. Ejercicio 11.82. Defina un producto interno de los polinomios de Gegenbauer Cnλ . Ejercicio 11.83. Defina un producto interno de los polinomios de Tchebichef de segunda clase Un . Todos esto polinomios son solución de alguna ecuación diferencial. La ecuación diferencial correspondiente se da en el siguiente teorema. Teorema 11.84. Sea Pn (x) = cn entonces d dx 1 dn (hsn ), h dxn dPn sh + λn hPn = 0 dx donde λn es un coeficiente dado por 1 dP1 1 d2 s λn = −n + (n − 1) 2 c1 dx 2 dx Demostración 11.85. Observemos que dPn 1 d 1 d sh = (shpn−1 ) h dx dx h dx donde pn−1 es un polinomio de grado n − 1. Por (11.2) se tiene que 1 d dPn sh = pn . h dx dx Entonces podemos escribir esta relación como una combinación lineal de polinomios Pj , es decir n X dPn d λjn Pj . sh = −h (11.4) dx dx j=0 Multiplicamos esta ecuación en ambos lados por Pm , con m < n e integramos Z Z n n X X d dPn Pm λjn δjm = −λm λjn hPj Pm dx = − sh dx = − n dx dx A A j=1 j=1 5. FUNCIONES ESPECIALES 189 mientras que si integramos dos veces por partes el lado izquierdo, obtenemos Z Z dPn dPn d d sh dx = − Pm sh dx Pm dx dx dx dx A A Z 1 d d = sh Pm Pn hdx = 0, dx A h dx ya que de nuevo llegamos a un polinomio de grado m < n dentro del parentesis cuadrado. Entonces (11.4) se puede escribir como dPn d sh = −hλnn Pn := −hλn Pn . dx dx De nuevo calculamos la integral Z Pm A d dx dPn sh dx, dx pero ahora para m = n, se tiene: Z Z d dPn dPn d2 Pn d Pn sh dx = (sh) + sh 2 dx Pn dx dx dx dx dx A A Z 2 1 dPn d Pn Pn = P1 (x) + s 2 hdx c1 dx dx A ya que 1 d P1 (x) = c1 (hs). h dx Ahora supongamos que P1 (x) = l0 +l1 x, s(x) = s0 +s1 x+s2 x2 y Pn (x) = an xn +· · · , entonces la integral será Z d Pn dx A dPn sh dx dx 1 n n Pn = (l1 an nx + · · · ) + (s2 an n (n − 1) x + · · · ) hdx c1 Z A Z 1 l1 n + s2 n (n − 1) Kxn−1 Pn hdx + · · · an xn Pn hdx + = c1 A A Z donde K es alguna constante. Sin embargo, como podemos ver en (11.3 ), sólo los términos de grado n del polinomio pn son diferentes de cero. Entonces Z Z d dPn 1 Pn sh dx = l1 n + s2 n (n − 1) Pn Pn hdx dx dx c1 A A por lo que 1 d2 s 1 dP1 1 l1 n + s2 n (n − 1) = −n + (n − 1) 2 λn = − c1 c1 dx 2 dx 2 Ejemplo 11.86. Los polinomios de Hermite Hn estan dados por h = e−x , s = −1, cn = 1, por lo que los primeros terminos son: H0 = 1, H1 = 2x, etc. Entonces dH1 d2 s = 0. = 2, dx dx2 Se tiene que λn = −2n, la ecuación diferencial será 2 d −x2 dHn −e − 2ne−x Hn = 0 dx dx 190 11. ESPACIOS CON MEDIDA o sea d d2 Hn − 2x Hn + 2nHn = 0 2 dx dx para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación diferencial de Hermite. Ejemplo 11.87. Los polinomios de Legendre Pn estan dados por h = 1, s = 1 − x2 , c1 = −1/2, por lo que los primeros terminos son: P0 = 1, P1 = x, etc. Entonces dP1 d2 s = −2. = 1, dx dx2 Se tiene que λn = −n [−2 − (n − 1)] la ecuación diferencial será dPn d + n (n + 1) Pn = 0 1 − x2 dx dx o sea d2 d 1 − x2 Pn − 2x Pn + n (n + 1) Pn = 0 dx2 dx para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación diferencial de Legendre. Ejemplo 11.88. Los polinomios de Laguerre Ln dados por h = e−x , s = x, cn = 1, por lo que los primeros terminos son: L0 = 1, L1 = −x + 1, etc. Entonces dL1 d2 s = 0. = −1, dx dx2 Se tiene que λn = −n (−1) y la ecuación diferencial de Laguerre será d −x dLn xe + ne−x Ln = 0 dx dx o sea d2 d x 2 Ln + (1 − x) Ln + nLn = 0 dx dx para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación diferencial de Laguerre. Suelen definirse también los polinomios asociados de Laguerre Lm n por la ecuación dm Lm (x) = Ln n dxm las cuales son solución de la ecuación diferencial d m d2 m Ln − (m + 1 − x) L + (n − m) Lm n =0 2 dx dx n Ejercicio 11.89. Escriba la ecuación diferencial de los polinomios de Tchebichef de primera clase Tn . x Ejercicio 11.90. Escriba la ecuación diferencial de los polinomios de Jacobi P. Ejercicio 11.91. Escriba la ecuación diferencial de los polinomios de Gegenbauer Cnλ . Ejercicio 11.92. Escriba la ecuación diferencial de los polinomios de Tchebichef de segunda clase Un . Part 5 ECUACIONES DIFERENCIALES CHAPTER 12 ECUACIONES DIFERENCIALES ORDINARIAS 1. Métodos de Solución Las ecuaciones diferenciales son de una importancia escencial en todas las ramas de las ciencias. La razón es muy simple, todas las leyes fundamentales de las ciencias tienen que ver con la caracteristica mas importante de la materia: el movimiento. Las leyes fundamentales de las ciencias son relaciones entre movimientos en el espacio, el tiempo, la temperatura, la presion, los momentos, las luminosidades, etc., las cuales se representan con derivadas. Estas relaciones entre el movimiento da como resultado relaciones entre derivadas, es decir, da como resultado ecuaciones diferenciales. Toda la materia esta en movimiento, esta es su caracteristica enscencial. Lo estático es solo una aproximación del estado de la materia que en ocaciones nos da resultados suficientemente buenos para entender algún fenómeno. Pero el movimiento esta inherente en toda la materia y las relaciones entre este moviminto nos da las leyes fundamentales de la naturaleza. Es por eso que estas leyes pueden casi siempre ser representadas por ecuaciones diferenciales. Una solución de estas ecuaciones diferenciales es un caso particular, una aplicación de la ley que esta siendo estudiada. En los dos capitulos que siguen estudiaremos las lineas mas elementales para la solución de ecuaciones diferenciales. Vamos a iniciar con las más sencillas de estas, las ecuaciones diferenciales lineales. Por simplicidad iniciaremos con ecuaciones diferenciales en donde el argumento, la incognita, solo depende de una variable. A estas ecuaciones diferenciales se les llama ordinarias. Definición 12.1. Sea y : ℜ → ℜ tal que y = y(x), función continua y derivable. Una ecuación diferencial ordinaria es una relación tal que F = F (x, y, y ′ , y ′′ , · · · ) = f (x), para toda F : ℜ × C ([a, b]) × · · · → ℜ Notación 12.2. En estos dos capitulos, y ′ representa la derivada de y respecto de alguna variable, y ′′ representa la segunda derivada de y, etc. Definición 12.3. Se dice que la ecuación diferencial es lineal, si F es lineal en todas las entradas que contengan a y y sus derivadas. Definición 12.4. Se dice que la ecuación diferencial es de orden n, si la maxima derivada de y que aparece en la ecuación diferencial es la n-esima. Definición 12.5. Se dice que la ecuación diferencial es homogenea, si f (x) = 0. Ejemplo 12.6. Sea F : ℜ×C ([a, b])×C ([a, b]) → ℜ, tal que y ′ +a(x)y = f (x). Se llama ecuación lineal ordinaria de primer orden. Ejemplo 12.7. Sea F : ℜ × C ([a, b]) × C ([a, b]) × C ([a, b]) → ℜ, tal que y ′′ + a(x)y ′ + b(x)y = f (x). Se llama ecuación lineal ordinaria de segundo orden, etc. 193 194 12. ECUACIONES DIFERENCIALES ORDINARIAS Para ecuaciones diferenciales lineales, exiten dos proposiciones muy generales Proposición 12.8. La suma de dos soluciones de una ecuación diferencial lineal homogénea, también es solución. Demostración 12.9. Sea y (n) + an (x)y (n−1) + · · · + a1 (x)y = 0 una ecuación diferencial lineal homogénea y sean y1 y y2 soluciones. Entonces (n) y1 (n) y2 (n) implica y1 (n) + y2 (n−1) + an (x)y1 (n−1) an (x)y2 + · · · + a1 (x)y1 = 0 + · · · + a1 (x)y2 = 0 (n−1) (n−1) + · · · + a1 (x) (y1 + y2 ) = 0 + an (x) y1 + y2 + Proposición 12.10. La suma de una solución homogenea de una ecuación diferenecial lineal cualquiera y la de una solución general de la misma ecuación diferencial, también es solución. Demostración 12.11. Sea y (n) + an (x)y (n−1) + · · · + a1 (x)y = f (x) una ecuación diferencial lineal no-homogénea y sean y1 una solución de la respectiva ecuación diferencial homogénea y y2 una solución general de la ecuación. Entonces (n) y1 (n) y2 (n) implica y1 (n) + y2 (n−1) + an (x)y1 (n−1) an (x)y2 + · · · + a1 (x)y1 = 0 + · · · + a1 (x)y2 = f (x) (n−1) (n−1) + · · · + a1 (x) (y1 + y2 ) = f (x) + an (x) y1 + y2 + Otra proposición que puede ser útil es la siguiente: Proposición 12.12. Toda ecuación diferencial ordinaria lineal de orden n puede ser escrita como un sistema de dos ecuaciones diferenciales de orden n − 1. Demostración 12.13. Sea y (n) +an (x)y (n−1) +· · ·+a1 (x)y = f (x). Definamos z = y ′ . Entonces la ecuación se transforma en z (n−1) +an (x)z (n−2) +· · ·+a1 (x)y = f (x). Corolario 12.14. Toda ecuación diferencial ordinaria lineal de orden n puede ser escrita como un sistema de n ecuaciones diferenciales de orden 1. Demostración 12.15. Definamos z1 = y ′ , z2 = y ′′ = z1′ , · · · , zn−1 = y (n−1) = ′ Entonces la ecuación diferencial se transforma en zn−1 +an (x)zn−1 +an−1 (x)zn−2 + · · · + a1 (x)y = f (x). ′ zn−2 . La soluciones de algunas ecuaciones diferenciales ordinarias puden ser encotradas utilizando mt́odos sencillos. El método mas común es dando un “ansatz”, esto es, proponiendo una función que nosotros creemos es muy parecida a la solución que queremos encontrar, es un poco adivinando el resultado. Vamos a iniciar con el caso mas simple. Proposición 12.16. Sea y ′ + a(x)y = f (x) una ecuación lineal ordinaria de primer orden. Su solución esta dada por Z x exp(A(z))f (z)dz (12.1) y(x) = exp(−A(x)) x0 donde A′ = a(x). 1. MÉTODOS DE SOLUCIÓN 195 Demostración 12.17. La manera mas simple de demostrar que (12.1) es la solución de la ecuación diferencial, es subtituyendo la solución en la ecuación. Otra forma es como sigue. Reescribamos la ecuación diferencial como y ′ + A′ y = f (x) con A′ = a(x) y multipliquemos la ecuación completa por exp(A). Obtenemos ′ exp(A)y ′ + exp(A)A′ y − exp(A)f (x) R= (exp(A)y) − exp(A)f (x) = 0 x De aqui obetenemos que exp(A)y = x0 exp(A(z))f (z)dz, de donde se obtiene el resultado. A la función exp(A) se le suele llamar factor integrante, ya que gracias a él, una parte de la ecuación diferencial se puede integrar. Entonces la solución de la ecuacion diferencial linea ordinaria de primer orden se puede llevar a la resolución de una integral o también se dice, se reduce a cuadraturas. El problema es ahora resolver la integral de la solución, lo cual no siempre es posible hacerlo analiticamente. Ejemplo 12.18. Sea y ′ + x1 y − a0 x5 = 0. Entonces A′ = x1 , es decir A = ln(x). Se tiene que exp(A) R = x, por lo que la solución de la ecuación es y(x) = a0 1 x 5 7 zz dz = x + c x x0 7x Ejercicio 12.19. Resolver : 1) y ′ + x1 y − a0 exp(x) = 0. 2) y ′ + x1 y − a0 sin(x) = 0. 3) y ′ + xy − a0 x = 0. 4) y ′ + xy − a0 x1 = 0. 5) y ′ + ln(x)y − a0 x = 0. La siguiente ecuación en complejidad es la ecuación lineal de cualquier orden en coeficientes constantes. Proposición 12.20. Sea y (n) + an y (n−1) + · · · + a1 y = 0 una ecuación lineal ordinaria homogénea de orden n y aj ∈ C, con j = 1, · · · , n. Su solución esta dada por y(x) = cn exp(rn x) + · · · + c1 exp(r1 x) donde r1 , · · · , rn son las raices distintas del polinomio caracteristico de la ecuación diferencial dado por rn + an rn−1 + · · · + a1 r = 0, o y(x) = ci xi + · · · c1 x + c0 exp(rj x) + · · · + c1 exp(r1 x) para cada raiz de multiplicidad i − 1 del polinomio caracteristico. Demostración 12.21. Lo que en realidad nos dice el teorema es que un ansatz conveniente para resolver estas ecuaciones diferenciales es y(x) = c exp(rx), donde c y r son constantes a determinar. Subtituimos este ansatz en la ecuación diferencial y obtenemos presisamente el polinomio caracteristico. En el caso de que una raiz se repita i veces, tenemos que ci xi + · · · c1 x + c exp(rj x) es también una solución de la ecuación diferencial. La solución mas general, sera la suma de todas las soluciones. Ejemplo 12.22. Sea y ′′ + 2y ′ + y = 0. El ansatz conveniente es y(x) = c exp(rx). Substituimos en la ecuación diferencial para obtener: c exp(rx) r2 + 2r + 1 = 2 0, lo que implica que r2 + 1 = 0. Las raices del polinomio caracteristico son degeneradas (repetidas) y son r1,2 = −1. Se sigue que las soluciones de la ecuación diferencial son: 196 12. ECUACIONES DIFERENCIALES ORDINARIAS y1 = c1 x exp(−x) y y2 = c0 exp(−x). La solución general es entonces dada por: y(x) = (c1 x + c0 ) exp(−x) Ejemplo 12.23. La ecuación del oscilador armónico es y ′′ + ω 2 y = 0. (12.2) El√polinomio caracteristico es r2 + ω 2 = 0. Este polinomio tiene 2 raices, r = ± −ω 2 = ±iω. Si ω es real, la solución de la ecuación diferencial es y(x) = = = c1 exp(iωx) + c2 exp(−iωx) c1 (cos (ωx) + i sin (ωx)) + c2 (cos (ωx) − i sin (ωx)) (c1 + c2 ) cos (ωx) + i (c1 − c2 ) sin (ωx) = A1 cos (ωx) + A2 sin (ωx) = = A sin (δ) cos (ωx) + A cos (δ) sin (ωx) A sin (ωx + δ) = = B cos (σ) cos (ωx) − B sin (σ) sin (ωx) B cos (ωx + σ) donde c1 + c2 = A1 = A sin (δ) = B cos (σ) y i (c1 − c2 ) = A2 = A cos (δ) = B sin (σ). Esta solución es una función oscilante. Si ω es imaginaria, la solución sera y(x) = c1 exp(ωx) + c2 exp(−ωx) que es una función monotona. Si ω es compleja, la solución es una mezcla de las dos anteriores. Vean la figura 1. Figure 1. La gráfica de las soluciones de la ecuación de onda. La solución graficada es exp(ix) + exp(−ix) (lnea continua), exp(x)+exp(−x) (lnea punteada) y exp((0.3+i)x)+exp((0.3−i)x) (lnea rayada). Observen como la primera solución es periódica, a segunda es monótona y la tercera es mixta. 1. MÉTODOS DE SOLUCIÓN 197 Ejercicio 12.24. La ecuación del oscilador armónico amortiguado es y ′′ + hy + ω 2 y = 0. Encontrar todas las soluciones de esta ecuación. Hacer un análisis del comportamiento de las soluciones. ′ Ejercicio 12.25. Resuelva la ecuación del oscilador armonico para las condiciones iniciales y(0) = 0 , y ′ (0) = 1 y para y(0) = π, y ′ (0) = −2 y grafique las soluciones para ω = 1. Ejercicio 12.26. Resuelva la ecuación del oscilador armonico amortiguado para las condiciones iniciales y(0) = 0, y ′ (0) = 1 y para y(0) = π, y ′ (0) = −2 y con ω = 1, grafique las soluciones para h = 10, 1, 0.1 y 0.01. Explique el comportamiento. Para el caso de las ecuaciones de coeficientes constantes no homogeneas, existen varios métodos para encontrar la solución. Uno método muy usado es el de proponer un ansatz conveniente. Vamos a dar un ejemplo de como funciona este método. Ejemplo 12.27. Tomemos la ecuación del oscilador armónico reforzado, es decir y ′′ + ω 2 y = a sin(bx). Para encontrar las soluciones de esta ecuación, propongamos una solución (un ansatz) del tipo y(x) = A sin(Ωx). Si substituimos en la ecuación diferencial, obtenemos −AΩ2 sin(Ωx) + ω 2 A sin(Ωx) = a sin(bx). Lo primero que observamos es que si hacemos Ω = b, la ecuación se reduce a una ecuación algebraica −AΩ2 + ω 2 A = a, cuya solución es A = a/ ω 2 − Ω2 . Por lo que una solución de la ecuación del oscilador armónico reforzado sera y(x) = a/ ω 2 − Ω2 sin(bx). Por la proposición 12.10 se tiene que la solución general de la ecuación diferencial es y(x) = c1 sin(ωx) + c2 cos(ωx) + a/ ω 2 − b2 sin(bx). Vean la figura 2. Ejemplo 12.28. Se tiene una situación equivalente si se quiere resolver la ecuación diferencial y ′′ + ω 2 y = a exp(bx). Ahora el ansatz conveniente es y(x) = A exp(Ωx). Haciendo lo mismo que en el ejemplo anterior se obtiene que la solución general es y(x) = c1 sin(ωx) + c2 cos(ωx) + a/ ω 2 + b2 exp(bx) Ejercicio 12.29. Resolver las siguientes ecuaciones diferenciales no homogeneas, usando un ansatz conveniente. 1) y ′′ + ω 2 y = a1 sin(b1 x) + a2 exp(b2 x) 2) y ′′ + hy ′ + ω 2 y = a1 sin(b1 x) 3) y ′′ + hy ′ + ω 2 y = a1 sin(b1 x) + a2 exp(b2 x) 4) y ′′ + hy ′ + ω 2 y = a1 x 5) y ′′ + hy ′ + ω 2 y = a1 x + a2 exp(b2 x) Sin embargo, en ocaciones resulta practicamente imposible dar un ansatz conveniente, entonces la ecuación diferencial de segundo orden también se puede reducir a cuadraturas. El método es el siguiente Algoritmo 12.30. Sea la ecuación diferencial (12.3) y ′′ + hy ′ + ω 2 y = f (x) y yhom (x) = c1 y1 (x) + c2 y2 (x) la solución general de la ecuación homogenea correspondiente. Entonces, la solución no homogenea de (12.3) se puede buscar, 198 12. ECUACIONES DIFERENCIALES ORDINARIAS Figure 2. Soluciones de la ecuación del oscilador armónico reforzado. La soluciones graficadas son: cos(x) − 1/(1 − b2 ) sin(bx), donde hemos hecho ω = 1 y a = 1. Las gráficas corresponden a b = 1.1, 1.01 y 1.001, de la más pequeña a la más grande. Observen como la solución se hace grande conforme nos acercamos a b = 1, que es el valor de la resonancia, es decir, cuando la frecuencia del reforzamiento se acerca a la frecuencia de la solución homogénea. suponiendo que c1 y c2 son funciones de x. Es decir yN o hom (x) = c1 (x)y1 (x) + c2 (x)y2 (x). Si subtituimos este ansatz en (12.3), obtenemos yN o hom (x) = c1 (x)y1 (x) + c2 (x)y2 (x) ′ yN o hom (x) ′′ yN o hom (x) = = c1 (x)y1′ (x) + c2 (x)y2′ (x) + c′1 (x)y1 (x) + c′2 (x)y2 (x). c1 (x)y1′′ (x) + c2 (x)y2′′ (x) + c′1 (x)y1′ (x) + c′2 (x)y2′ (x) + c′1 (x)y1′ (x) + c′2 (x)y2′ (x) + c′′1 (x)y1 (x) + c′′2 (x)y2 (x). de donde obtenemos que ′ 2 ′′ yN o hom + hyN o hom + ω yN o hom = h (c′1 (x)y1 (x) + c′2 (x)y2 (x)) + 2 (c′1 (x)y1′ (x) + c′2 (x)y2′ (x)) + c′′1 (x)y1 (x) + c′′2 (x)y2 (x) (12.4) = f (x) Ahora supongamos que c′1 (x)y1 (x) + c′2 (x)y2 (x) = 0, lo que implica que también ′ la derivada de este termino debe ser cero, es decir (c′1 (x)y1 (x) + c′2 (x)y2 (x)) = ′ ′ ′ ′ ′′ ′′ c1 (x)y1 (x)+ c2 (x)y2 (x)+ c1 (x)y1 (x)+ c2 (x)y2 (x) = 0. Si subtituimos este resultado en la ecuación diferencial (12.4), obetenemos que c′1 (x)y1′ (x) + c′2 (x)y2′ (x) = f (x) Quiere decir que si encotramos dos funciones c1 (x) y c2 (x) que cumplan c′1 (x)y1 (x) + c′2 (x)y2 (x) = 0 c′1 (x)y1′ (x) = f (x) + c′2 (x)y2′ (x) 2. TRANSFORMADAS INTEGRALES 199 obtendremos una solución no homogenea. Podemos resolver el sistema para las funciones c1 (x) y c2 (x) usando el método de determinantes. El resultado es y2 (x)f (x) W (y1 , y2 ) y1 (x)f (x) c′2 (x) = W (y1 , y2 ) donde hemos definido el determinante del sistema como c′1 (x) = − W (y1 , y2 ) = y1 y2′ − y2 y1′ con lo que ya podemos escribir la solución particular de la ecuación diferencial en forma de cuadraturas. Esta es Z x (y1 (t)y2 (x) − y2 (t)y1 (x)) yN o hom (x) = f (t)dt W (y1 , y2 ) (t) x0 Por tanto, la solución general sera y(x) = c1 y1 (x) + c2 y2 (x) + yN o hom (x) Notación 12.31. Al determinante W (y1 , y2 ) = y1 y2′ − y2 y1′ se le llama Wronskiano Ejercicio 12.32. Resuelva los Ejercicios 12.29 usando el algoritmo anterior. Las ecuaciones diferenciales de segundo orden son especialmente interesantes ya que en la mayoria de las teorı́as fı́sicas, sus ecuaciones de campo son de segundo orden. Las ecuaciones de segundo orden mas comunes en todos los campos de las ciencias son las ecuaciones con coeficientes variables. El método de solución es variado, no hay un método único para todas. Vamos a presentar algunos de los métodos mas utilizados. 2. Transformadas Integrales Las transformadas integrales son un mecanismo para simplificar ecuaciones diferenciales. La idea es llevar a la ecuación diferencial a otro espacio en donde se pueda resolver y luego con la transformación inversa regresar al espacio original. Este último paso no siempre es simple o en ocaciones sucede que la ecuación diferencial es mas complicada en el espacio de llegada. Por eso no hay una receta universal para todas las ecuaciones y por eso existen varias trasformaciones, cada una adecuada para algunas de estas. Vamos a inicar con la definición de transformación integral. Definición 12.33. Sean f : C → C y g : C → C funciones y E un espacio Rb de Hilbert con producto interno (f, g) = a f ḡ dx con xs ∈ E. La transformada integral de una ecuación diferencial lineal de segundo orden eq = y ′′ + a(x)y ′ + ω(x)2 y − f (x) respecto a xs , se define como F (s) = (eq, xs ). El objetivo de esta transformada es el siguiente. Ya que (yxs )′ = yx′s + y ′ xs , el producto interno de y ′ con xs se puede escribir como: Z b Z b Z b b ′ ′ ′ (y , xs ) = y x̄s dx = (y x̄s ) dx − y x̄′s dx = y x̄s |a − (y, x̄′s ) . a a a 200 12. ECUACIONES DIFERENCIALES ORDINARIAS Entonces conviene escoger una función del espacio de Hilbert para la cual también conocemos el producto (y, x′s ). Si esto es posible, en ocaciones se puede encotrar una solución de la ecuación diferencial. Veamos algunos ejemplos. Ejemplo 12.34. ER un espacio de Hilbert real con xs = exp(−sx) ∈ E y pro∞ ducto interno (f, g) = 0 f gdx. Para esta función se cumple que Z ∞ ′ y (exp(−sx)) dx = −s (y, xs ) . (y, x′s ) = 0 De aquı́ se sigue Z ′ (y , xs ) = ∞ 0 ∞ y ′ exp(−sx)dx = y exp(−sx)|0 + s (y, xs ) = sF (s) − y(0). Análogamente se tiene que (y ′′ , xs ) = s2 F (s) − y ′ (0) − sy(0). A esta transformada integral se le llama la transformada de Laplace. Ejercicio 12.35. Demuestre que para la trasformada de Laplace, (y ′′ , xs ) = s F (s) − y ′ (0) − sy(0). 2 Ejemplo 12.36. Sea E el espacio de Hilbert del conjunto de las funciones Rl periódicas en [0, 2π] con producto interno (f, g) = 0 f gdx. Como se vió en el capı́tulo de análisis, ejemplo 10.25, un sistema ortonormal completo de este espacio es 1 1 1 {xk }k∈I = √ , √ sin(kt), √ cos(kt) π π 2π k=1,··· donde k = nπ/l y los coeficientes de Fourier estan dados por ( R 2π (f, cos(kt)) = 0 f cos(kt)dt, R 2π (f, xk )k∈I = ∈E (f, sin(kt)) = 0 f sin(kt)dt, Podemos clasificar a estas funciones como las funcione pares {cos(kt)}k∈I = {xpk } y las funciones impares {sin(kt)}k∈I = {xik }. Para estas funciones se tiene: Z 2π 1 ′ ′ y (cos(kt)) dt = −k y, xik . y, (xpk ) = √ π 0 Entonces se sigue (y ′ , xpk ) = −k (y, xk ) − (y(0) − y(l) cos(nπ)) mientras que para las funciones impares se tiene (y ′ , xik ) = −k y, xik A esta transformada se le llama transformada finita de Fourier. Ejercicio 12.37. Demuestren que para la transformada finita de Fourier se siguen las identidades: (y ′′ , xpk ) = (y ′′ , xpk ) = −k 2 (y, xpk ) − (y ′ (0) − y ′ (l) cos(nπ)) k 2 (y, xpk ) + k (y(0) − y(l) cos(nπ)) 2. TRANSFORMADAS INTEGRALES 201 Ejemplo 12.38. Sea RE un espacio de Hilbert real con xk = exp(ikx) ∈ E y ∞ producto interno (f, g) = −∞ f ḡdx. Análogamente a la transformada de Laplace, para esta función se cumple Z ∞ ′ (y, x′k ) = y (exp(−ikx)) dx = −ik (y, xk ) . −∞ De donde se sigue que Z ∞ ′ (y , xk ) = y ′ exp(−ikx)dx = y exp(−ikx)|∞ −∞ + ik (y, xk ) = ikF (k), −∞ para toda función tal que y(∞) = y(−∞) = 0. Estas condiciones son tı́picas en una multitud de problemas fı́sicos, quı́micos y de ingenierı́a. Análogamente se tiene: (y ′′ , xk ) = −k 2 F (k). A esta transformada integral se le llama la transformada continua de Fourier. Estas transformadas integrales tienen varias propiedades. Algunas de éstas son Teorema 12.39 (Transformada de Laplace). Sea E espacio de Hilbert y y ∈ E, cuya transformada de Laplace es F (s) = (y, xs ). Entonces 1) F es lineal 2) La transformada de exp(ax)y(x) es 3) Si f (x) = (exp(ax)y(x), xs ) = F (s − a) y(x − a) para 0 para x>a , la transformada de f es x<a (f, xs ) = exp(−as)F (s) 4) La transformada de y(ax) es (y(ax), xs ) = 5) La transformada de Rx 1 s F a a y(x)dx es 0 Z x 1 y(x)dx, xs = F (s) s 0 6) La transformada de xn y(x) es n (xn y(x), xs ) = (−1) dn F (s) dsn 7) La transformada de y(x)/x es Z ∞ y(x) F (t)dt , xs = x s Ejercicio 12.40. Demostrar el Teorema anterior. Con la ayuda de este teorema es posible encotrar la transformada de Laplace de un sinnumero de funciones. Particularmente los incisos 6) y 7) del teorema nos permite encontrar la trasformada de Laplace de funciones multiplicadas por un exponente de x. 202 12. ECUACIONES DIFERENCIALES ORDINARIAS Ejemplo 12.41. Tomemos la ecuación diferencial de Bessel x2 y ′′ + xy ′ + x2 y = 0. Dado que (y ′ , xs ) = sF (s) − y(0), se tiene que (xy ′ , xs ) = (−1) d (sF (s) − y(0)) . ds Análogamente 2 2 d s2 F (s) − sy(0) − y ′ (0) . x2 y ′′ , xs = (−1) ds2 Ası́, la transformada de Laplace de la ecuación diferencial de Bessel es y ′′ + xy ′ + x2 y, xs = s2 F ′′ + 4sF ′ + 2F − (sF ′ + F ) + F ′′ s2 + 1 F ′′ + 3sF ′ + F = = 0 La solución de esta ecuación diferencial es 1 . F (s) = √ s2 + 1 En otras palabras, usando la propidad 4) del teorema de la transformada de Laplace, se tiene que para la función de Bessel 1 (J0 (ax), xs ) = √ s2 + a 2 Como vemos, al transformar una ecuación diferencial al espacio de las funciones de Laplace, generalmente se obtiene otra ecuación diferencial. En ocaciones mas simple de resolver, pero no siempre. Es por eso que existen en general varios métodos de sulución. De hecho, uno de los procesos mas complicados de llevar a cabo al resolver una ecuación diferencial con la transformada de Laplace, es encontrar la transformada inversa. Ejercicio 12.42. Encuentre la transformada de Laplace de las siguientes funciones 1) y(x) = 1 2) y(x) = xn 3) y(x) = exp(ax) 4) y(x) = sin(ax) 5) y(x) = cos(ax) 6) y(x) = sinh(ax) 7) y(x) = cosh(ax) Una situación análoga sucede con la transformada de Fourier. Daremos un ejemplo: 1 para −a < x < a Ejemplo 12.43. Sea f (x) = . 0 de otra forma 2. TRANSFORMADAS INTEGRALES 203 La transformación de Fourier de f (x) será Z ∞ (f, xk ) = f (x) exp(−ikx)dx −∞ a = Z −a = exp(−ikx)dx = 2 sin(ka). k a 1 exp(−ikx) −ik −a En este punto es interesante notar que la función f (x) es una linea paralela que pasa por uno y que va de −a a a, mientras que su transformada es una función sinosoidal que decae, vean la figura 3. Figure 3. La transformada de Fourier de la función f = 1, para el intervalo [−a, a] y cero de lo contrario. Mientras que la función es constante, su transformada de Fourier nos da una función oscilante. Este comportamiento se repite constantemente en esta transformada y se utiliza mucho para hacer análisis de señales. sirve Teorema 12.44 (Transformada de Fourier). Sea E espacio de Hilbert y y ∈ E, cuya transformada de Fourier es F (k) = (y, xk ). Entonces 1) F es lineal 2) La transformada de exp(iax)y(bx) es 1 k−a (exp(iax)y(bx), xk ) = F b b 204 12. ECUACIONES DIFERENCIALES ORDINARIAS 3) La transformada de xn y(x) es (xn y(x), xk ) = in dn F (k) dk n Ejercicio 12.45. Demostrar el teorema anterior. Lo que vamos a ver a continuación es un teorema que nos dice que pasa con la transformada del producto de dos funciones. Este teorema es de gran importancia y aplica en las transformaciones de Fourier, se llama el teorema de la convolución. Para introducir el teorema, primero vamos a definir que es la convolución Definición 12.46. San E espacio de Hilbert y Rf : C → C y g : C → C funciones. ∞ La convolución de f con g es la integral f ∗ g = −∞ f (u)g(x − u)du Entonces se sigue el teorema: Teorema 12.47 (de Convolución). San E espacio de Hilbert y f : C → C y g : C → C funciones. Sea F (k) y G(k) sus respectivas transformadas de Fourier. Entonces, la transformada de Fourier de la convolución de f y g, es el producto de las tranformadas de f y g, es decir (f ∗ g, xk ) = (f, xk ) (g, xk ) R∞ R∞ R∞ Demostración 12.48. −∞ f ∗g exp(−ikx)dx = −∞ −∞ f (u)g(x−u) exp(−ikx)dudx. Hacemos entonces v = x − u para obtener Z ∞Z ∞ Z ∞ f (u)g(v) exp(−ik (u + v))dudv f ∗ g exp(−ikx)dx = −∞ −∞ −∞ Z ∞ Z ∞ g(v) exp(−ikv)dv f (u) exp(−iku)du = −∞ −∞ 3. Método de Series El método de series o de polinomios es muy usado para resolver ecuaciones difirenciales lineales de segundo orden con coeficientes variables. Consiste en proponer una solución en series, es decir, usando el hecho de que (P, ·) el conjunto de los polinomios de grado arbitrario con su producto canónico y {pn }n=0,1,··· = {1, x, x2 , · · · } es un sistema completo en Cℜ . Entonces, toda función suave, solución de una ecuación diferencial se puede escribir como f (x) = ∞ X n=0 n n (p · x ) x = ∞ X an xn . n=0 La serie se propone como un ansatz para resolver la ecuación diferencial y se encuetran los coeficientes an del polinomio. Veamos esto con unos ejemplos. Ejemplo 12.49. Tomemos de nuevo la ecuaciónPdiferencial de Bessel x2 y ′′ + ∞ xy + x2 y = 0. Entonces usemos el ansatz y(x) = n=0 an xn . Si subtituimos el ′ 3. MÉTODO DE SERIES 205 ansatz en la ecuación, obtenemos x2 ∞ X n=0 n(n − 1)an xn−2 + x ∞ X n=0 ∞ X nan xn−1 + x2 n=0 ∞ X an xn = n=0 n(n − 1)an xn + nan xn + an xn+2 ∞ X n2 an xn + an xn+2 n=0 = = 0 Si escribimos los primeros términos de esta serie, vemos que 0 + a0 x2 + a1 x + a1 x3 + 2 4 P∞ 4a 2 x + a2 x + n n n+2 = 3 5 n=0 n(n − 1)an x + nan x + an x 9a x + a x + 3 3 4 6 16a x + a x + 4 4 5 7 25a5 x + a5 x + n=0 n=1 n=2 = n=3 n=4 n=5 a1 x + (a0 + 4a2 ) x2 + (a1 + 9a3 ) x3 + (a2 + 16a4 ) x4 + (a3 + 25a5 ) x5 + · · · = 0 Como el espacio de polinomios (P, ·) es l.i. , los coeficientes de la suma deben de ser igual a cero para cada n. Lo primero que observamos es que a1 = 0. Pero despues se tiene que: an + (n + 2)2 an+2 = 0 lo que implica la relación an+2 = − an 2 (n + 2) Esta realción se llama la relación de recurrencia de la ecuación diferencial, ya que conociendo los coeficientes a0 y a1 , es posible conocer todos los demas. El polinomio queda entonces como y(x) = a0 ∞ X (−1)n 2n 2x 2n (n!) n=0 2 A estos polinomios se les llama Polinomios de Bessel J0 . Ejemplo 12.50. Tomemos de nuevo la ecuación diferencial de Bessel completa x2 y ′′ + xy ′ + x2 − k 2 y = 0. Para resolver esta ecuación conviene tomar P∞ el ansatz del polinomio un poco modificado. Para este caso tomemos y(x) = n=0 an xn+l . Subtituyendo este ansatz en la ecuación diferencial se obtiene, 2 x ∞ X n=0 n+l−2 (n + l) (n + l − 1)an x ∞ X n=0 +x ∞ X n=0 n+l−1 (n + l) an x 2 + x −k 2 ∞ X an xn+l = n=0 (n + l) (n + l − 1) + (n + l) − k 2 an xn+l + an xn+l+2 = 0 206 12. ECUACIONES DIFERENCIALES ORDINARIAS y hagamos el mismo análisis que hicimos en el caso anterior, ∞ X n=0 = (n + l) (n + l − 1) + (n + l) − k 2 an xn+l + an xn+l+2 l(l − 1) + l − k 2 a0 xl + a0 xl+2 (1 + l) (1 + l − 1) + (1 + l) − k 2 a1 x1+l + a1 x1+l+2 (2 + l) (2 + l − 1) + (2 + l) − k 2 a2 x2+l + a2 x2+l+2 (3 + l) (3 + l − 1) + (3 + l) − k 2 a3 x3+l + a3 x3+l+2 n=0 n=1 n=2 n=3 y hacemos la comparación de los coeficientes tal que se obtiene para el exponente de x mas bajo l 2 − k 2 a0 = 0 lo que implica l = ±k. El siguiente exponente implica (1 + l) (1 + l − 1) + (1 + l) − k 2 a1 = 0 De nuevo, como l = ±k, esta identidad se cumple solo si a1 = 0. Para el resto de los coeficientes se cumple la realción de recurrecia an an+2 = − (n + 2) (n + 2 + 2k) por lo que los polinomios de Bessel completos estan dados por: Jk (x) = ∞ X n=0 n (−1) x2n+k + k)! 22n n! (n la solución de la ecuación de Bessel es entonces y(x) = a0 Jk + a′0 J−k , vean la figura 4. Figure 4. . Funciones de Bessel para diferentes valores de k. De la misma forma se pueden resolver una gran cantidad de ecuaciones diferenciales con coeficientes variables. Algunas de ellas quedaran como ejercicios. 3. MÉTODO DE SERIES 207 Ejercicio 12.51. Usando el ansatz polinomial, resuelva la ecuación diferencial 1) De Hermite y ′′ − 2xy ′ + 2ky = 0 m2 y=0 2) De Legendre 1 − x2 y ′′ − 2xy ′ + l (l + 1) − 1−x 2 3) De Laguerre xy ′′ + (1 − x) y ′ + ky = 0 En las fuguras 5, 6, 7 se muestran los polinomios de Hermite, Legendre y Laguerre respectivamente para diferentes valores de sus parametros. Figure 5. Polinomios de Hermite para diferentes valores de k. Figure 6. con m = 0. Polinomios de Legendre para diferentes valores de l 208 12. ECUACIONES DIFERENCIALES ORDINARIAS Figure 7. Polinomios de Laguerre para diferentes valores de k. CHAPTER 13 ECUACIONES DIFERENCIALES PARCIALES 1. Métodos de Solución Las ecuaciones fundamentales de la fı́sica, la quı́mica y la ingenierı́a son ecuaciones diferenciales parciales. En esta parte vamos a ocuparnos de las ecuaciones mas usadas en la literatura de las ciencias fı́sicas, que son a su vez muy representativas de las ecuaciones diferenciales parciales lineales en general. Esta sección es tal vez la mas limitada de este curso, puesto que la cantidad de material sobre este tema es muy basto. Aqui nos limitaremos a utilizar algunos métodos para la resolución de estas ecuaciones diferenciales en los casos mas simples y comunes que hay. Las ecuaciones diferenciales que vamos a tratar en esta parte son: : 1) La ecuación de onda (13.1) u = ∇2 u − 1 ∂2u = d(x, y, z) v 2 ∂t2 : 2) La ecuación de Difusión ∂u (13.2) = ∇ · (D∇u) ∂t : 3) La ecuación de Poisson (13.3) ∇2 u = d(x, y, z) donde u, d y D son funciones tales que u = u(x, y, z, t), d = d(x, y, z, t) y la función D = D(x, y, z). A la función d se le llama la fuente. Notación 13.1. El operador nabla se define como ∂ ∂ ∂ (13.4) ∇= , , ∂x ∂y ∂z y el operador = ∇2 − 1/v 2 ∂ 2 /∂t2 es el operador d’Alabertiano Notación 13.2. Al operador ∇2 = ∇ · ∇ se le conoce como Laplaciano. Notación 13.3. En general denotaremos a los operadores diferenciales por L, de tal forma que si por ejemplo L = , la ecuación de onda se escribe como Lu = d, o si L = ∇2 , la ecuación de Poisson se escribe como Lu = d, etc. Notación 13.4. A la ecuación homogenea de Poisson se le conoce como la ecuación de Laplace. Notación 13.5. Se suele clasificar a las ecuaciones diferenciales como ecuaciones hiperbolicas, como la ecuación de onda, ecuaciones parabolicas, como la ecuación de difusión y ecuaciones elipticas, como la ecuación de Poisson. 209 210 13. ECUACIONES DIFERENCIALES PARCIALES En la mayoria de los casos, es conveniente utilizar las simetrias del sistema para resolver la ecuación diferencial en cuestion. Para utilizar las simetrias es conveniente tener en mente las forma del operador nabla y del operador laplaciano ∇2 en diferentes sistemas coordenados. Uno de los más usados son las coordenadas esféricas, en donde x = r sin(θ) cos(ϕ) y z = = ∇2 = r sin(θ) sin(ϕ) r cos(θ) ∂2 1 ∂ 1 ∂ 1 ∂ 2 ∂ r + sin(θ) + r2 ∂r ∂r r2 sin(θ) ∂θ ∂θ r2 sin2 (θ) ∂ϕ2 y las coordenadas cilindricas, en donde x = ρ cos(θ) y z = = ∇2 = ρ sin(θ) z ∂ 1 ∂2 1 ∂ ∂2 ρ + 2 2+ 2 ρ ∂ρ ∂ρ ρ ∂θ ∂z Las tres ecuaciones diferenciales (13.1-13.3) tienen gran importancia en fı́sica y quı́mica, aunque aquı́ no nos ocuparemos de esto, solo de sus soluciones. Existen también una gran cantidad de metodos de solucion para estas ecuaciones. En este capı́tulo nosotros nos limitaremos a tres metodos: separación de variables, desarrollos de Fourier y funcı́on de Green. Vamos a iniciar con el metodo de separación de variables. 2. Separación de Variables El metodo de separación de variables consiste en proponer un ansatz en el que la función u se puede escribir como una función que depende del tiempo y otras que dependen de las demas variables, es decir, como u = X(x)Y (y)Z(z)T (t) Ejemplo 13.6. Supongamos una cuerda de guitarra estirada y que se suelta para sonar. La ecuación de la cuerda es la ecuación de onda sin fuente en una dimensión, digamos x. La ecuación de onda es 1 ∂2u ∂ 2u − =0 ∂x2 v 2 ∂t2 Ahora tomemos el ansatz u = X(x)T (t) y substituimos en la ecuación de onda (13.5) ∂2X 1 ∂2T − X =0 ∂x2 v 2 ∂t2 Si dividimos entre T X toda la ecuación, nos queda una parte que solo depende de x y otra que solo depende de t. Como x y t son variables independientes, se sigue que 1 ∂2T 1 ∂2X = 2 = −c 2 X ∂x v T ∂t2 T 2. SEPARACIÓN DE VARIABLES 211 donde c es una constante arbitraria. La ecuación de onda se separa en dos ecuaciones diferenciales como la ecuación del oscilador armónico d2 X + cX = 0 dx2 d2 T + cv 2 T = 0 dt2 √ √ cuyas soluciones son X(x) = c1 sin( c (x + x0 )) y T (x) = c2 sin( cv 2 (t + t0 )). La solución de la ecuación de onda es entonces √ √ u(x, t) = c1 sin c (x + x0 ) sin( cv 2 (t + t0 )). Vamos a suponer que al tiempo t = 0, el guitarrista pulsa la cuerda una elongación pequeña l. Si la cuerda tiene una longitud L, se tiene que sin(0) = sin(x = L) = 0. Esto quiere decir que al timpo t = 0, la cuerda tiene una elongación tipo sin(x), con los extremos √ fijos y puestos en x = 0 y x = L. Es decir, u(x, 0) = √ x )) sin( cv 2 t0 ) = l sin(xπ/L). Esto implica que c1 = l, x0 = 0, c1 sin( c (x + √ 0 √ 2 c = π/L y cv t0 = π/2, es decir c = 1, t0 = L/ (2v). La solución será entonces x vπ L u(x, t) = l sin π & , sin t+ L L 2v vean la figura 1. Si en vez de una cuerda de guitarra se tuviera una cuerda de violin,√el arco en la cuerda causa no una elongación, sino una vibración. En este caso, c no seria igual a π/L, sino estaria determinado por el número de ondas causadas por el arco en la cuerda al tiempo t = 0. Figure 1. La solución de la cuerda vibrando. La longitud de la cuerda aquı́ es L = 1, la elongación inicial es l = 0.1 y la velocidad de propagación de la onda v = 0.2. Se grafican varios momentos de la vibración de la cuerda. Comentario 13.7. Observemos que sin( vπ L t+ L 2v ) = cos( πv L t) 212 13. ECUACIONES DIFERENCIALES PARCIALES Comentario 13.8. Un metodo equivalente para resolver la ecuación de onda es proponiendo el ansatz u(x, t) = X(x) exp(−ikt). Subtituyendo este ansatz en la ecuación (13.5) se obtiene k2 d2 X + X =0 dx2 v2 que es la ecuación del oscilador armónico de nuevo. La solución es la misma que en el ejemplo, haciendo c = k 2 /v 2 . Sin embargo, utilizando este ansatz es posible escribir la solución general (sin condiciones iniciales) en forma de una suma. Para cada k se tiene una solución de la ecuación de onda. Por eso, la solución general se puede escribir como X k (x + xk ) e−ikt (13.6) u(x, t) = uk sin v k Observemos que el conjunto {sin(kx)}k=0,··· ,∞ es un conjunto completo. Es por eso que a t = 0 uno puede ajustar alguna función que determine las condiciones iniciales del problema. Igualmente se podrı́a escoger otra forma de la solución de la ecuación del oscilador armónico y escribir en terminos de esta nueva forma las condiciones iniciales del problema. Ejemplo 13.9. Supongamos que en vez de una guitarra se tiene un violin tal que al frotar el arco en la cuerda, produce una forma inicial de la cuerda de la forma 3 P uk sin (k/v (x + xk )). Explicitamente, la solución a todo tiempo se u(x, 0) = ve como k=−3 u(x, t) = k u1 sin (x + x1 ) eit + e−it + v 2 u2 sin (x + x2 ) ei2t + e−i2t + v 3 (x + x3 ) ei3t + e−i3t u3 sin v Supongamos que u0 = 0, u±1 = 4, u±2 = 2 y u±3 = 1 y que x1 = −1, x2 = 1 y x3 = 0, entonces la solución a tiempo t = 2 se ve como en la figura 2. Los modos 1, 2 y 3 se suman a cada instante. Cada uno de ellos es una función sinusoidal perfecta, una onda monocromatica, pero al sumarse, la onda final es distorcionada por la suma de todas. Las ondas reales son ası́, sumas de ondas monocromaticas, de funciones senos o cosenos con diferentes frecuencias y fases. Ejercicio 13.10. Resuelvan el sistema con las condiciones iniciales u0 = 0, u±1 = 1, u±2 = 2 y u±3 = 4. Grafiquen la solución a todo tiempo con v = 1, modificando los valores de las constantes xk . Ejercicio 13.11. Resuelvan la ecuación de la cuerda pero ahora con las condi2 P uk cos (kx/v), donde de nuevo u0 = 0, u±1 = 4 y ciones iniciales u(x, 0) = k=−2 u±2 = 1. Grafiquen la solución a todo tiempo con v = 1. Notación 13.12. A las componentes de la sumatoria (13.6) se les conoce como modos normales de vibración de la cuerda. 2. SEPARACIÓN DE VARIABLES 213 Figure 2. . Gráfica de la solución de la ecuación de onda con tres modos, aquı́ hemos puesto las condiciones iniciales con las constantes u0 = 0, u1 = 4, u2 = 2 y u3 = 1, las fases de cada modo son x1 = −1, x2 = 1 y x3 = 0. La solución se graficó al tiempo t = 2. Ejemplo 13.13. Vamos a suponer que la cuerda tiene una fuente. Es decir, alguien o algo esta provocando la onda. En tal caso la ecuación de la onda se ve como 1 ∂2u ∂2u − = d(x, t) ∂x2 v 2 ∂t2 Si la fuente es del tipo d = σ(x) sin(kt), podemos utilizar el ansatz u(x, t) = X(x) sin(kt). Si subtituimos en la ecuación anterior se obtiene k2 d2 X + X = σ(x) dx2 v2 que es la ecuación del oscilador armónico con fuentes. Esta ultima ecuación se resuelve entonces como en la sección anterior. Ejemplo 13.14. Vamos a resolver la ecuación de la cuerda (X(0) = 0, X(L) = 0) suponiendo que la fuente de sonido es de un arco de violin tal que d(x, t) = A cos(lx) sin(kt). La ecuación de onda, con el ansatz u = X(x) sin(kt), se reduce a resolver la ecuación del oscilador con la fuente d2 X k2 + 2 X = A cos(lx) 2 dx v Usando las técnicas estudiadas para resolver la ecuación del oscilador con fuentes, encontramos que la solución es A kx kx X (x) = − B sin − cos + cos (lx) 2 v v l2 − kv2 214 13. ECUACIONES DIFERENCIALES PARCIALES donde kL v − cos (lL) . sin kL v Lo primero que llama la atención es que cuando la frecuencia de la fuente k se aproxima al valor lv, el factor fuera del parentesis crece sin lı́mite. Sin embargo, el termino dentro del parentesis va a cero, de tal forma que en el lı́mite B= cos A sin(lx) (x − L) , 2 l por lo que la vibración es finita para todos los valores de k. La solución u(x, t) = X(x) sin(kt), es una cuerda vibrante con extremos en el origen y en L, que se mueve según la amplitud de vibración l. lim X = k→lv Ejercicio 13.15. Grafiquen la solución anterior para k = 1, 2, con v = 1, variando la longitud de la cuerda l y la amplitud de la fuente A. Ejemplo 13.16. Supongamos ahora que hacemos resonar un tambor, es decir, una membrana circular. Un tambor tiene simetria cilindrica (de hecho es un cilindro), asi es que usaremos coordenadas cilindricas. La membrana no tiene espesor, asi que u = u(ρ, θ, t). La ecuación de onda es para este caso ∂u 1 ∂2u 1 ∂2u 1 ∂ ρ + 2 2 − 2 2 =0 ρ ∂ρ ∂ρ ρ ∂θ v ∂t Vamos a utilizar el mismo ansatz que en el ejemplo anterior, pero ahora en tres dimensiones, u = R(ρ)Θ(θ)T (t). Substituimos y encotramos de nuevo que 11 ∂ ∂R 1 1 ∂2Θ 1 ∂2T ρ + = 2 = −c 2 2 R ρ ∂ρ ∂ρ Θ ρ ∂θ v T ∂t2 lo cual implica tres ecuaciones, una para cada función. Primero, la ecuación se separa como sigue ∂2T + c0 v 2 T 2 ∂t ∂R 1 1 ∂2Θ 11 ∂ ρ + R ρ ∂ρ ∂ρ Θ ρ2 ∂θ2 = 0 = −c0 Ahora buscamos separar las dos variable restantes, es decir ∂R 1 ∂2Θ 1 ∂ ρ + c0 ρ 2 = − = c1 ρ R ∂ρ ∂ρ Θ ∂θ2 de donde se obtiene una ecuación para cada variable d2 Θ + c1 Θ = dθ2 ∂R ∂ ρ + c0 ρ 2 − c1 R = ρ ∂ρ ∂ρ 0 0 Las ecuaciones para T y Θ son de nuevo la ecuación del oscilador armónico. La ecuación para R es la ecuación de Bessel, haciendo el cambio de variable c0 ρ2 = x2 , √ es fácil ver que la solución para la ecuación de R es R(ρ) = J√c1 ( c0 ρ). La solución general será entonces √ √ √ u(ρ, θ, t) = u0 J√c1 ( c0 ρ) sin ( c1 (θ + θ0 )) sin ( c0 v (t + t0 )) . 2. SEPARACIÓN DE VARIABLES 215 Supongamos que al tiempo t = 0 se le da un golpe al tambor que le provoca una elongación de tamaño l en el centro de la membrana. Como la membrana que vibra esta fija en los extremos del cı́rculo, se tendrá que √ √ √ u(ρ, θ, t) = u0 J√c1 ( c0 ρ) sin ( c1 (θ + θ0 )) sin ( c0 vt0 ) = lF (πρ/L), por ejemplo. De hecho, el único problema al que ahora nos enfrentamos es el de representar la función F (πρ/L) en terminos de los polinomios de Bessel. Eso es posible, porque los polinomios de Bessel son un conjunto completo. Finalmente la solución quedara como la expresión P de la función F (πρ/L)πven terminos de los uk Jk (πρ/L) sin (kθ) cos L t , donde las conpolinomios de Bessel u(ρ, θ, t) = k∈I stentes uk son los coeficientes que determinan la elongación inicial de la membrana P en terminos de las funciones de Bessel lF (πρ/L) = uk Jk (πρ/L) sin (kθ). k∈I Ejercicio 13.17. Resuelvan la ecuación de la cuerda pero ahora con las condi2 P uk Jk (πρ/L) sin (kθ), donde de nuevo u0 = 0, ciones iniciales lF (πρ/L) = k=−2 u±1 = 4 y u±2 = 1. Grafiquen la solución a todo tiempo con l = 1 y variando el tamaño del tambor L. Notación 13.18. A la ecuación ∇2 u + k 2 u = ρ se le llama la ecuación de Helmholtz Ejemplo 13.19. Vamos a resolver la ecuación homogenea de Helmholtz en coordenadas esféricas. Usamos para esto, el metodo de separación de variables. Proponemos el ansatz u(r, θ, ϕ) = R(r)Θ(θ)Φ(ϕ). Si subtituimos en la ecuación diferencial, se obtiene ∂2Φ 1 1 ∂ 1 ∂Θ 1 1 ∂ 1 2 ∂R r + sin(θ) + + k2 = 0 2 2 2 2 R r ∂r ∂r Θ r sin(θ) ∂θ ∂θ Φ r sin (θ) ∂ϕ2 Para separar las variables, primero multiplicamos toda la ecuación por r2 sin2 (θ) y separamos la ecuación para Φ. Se obtiene 1 ∂Θ ∂ ∂ 1 2 ∂R 2 r + sin(θ) sin(θ) + r2 sin2 (θ)k 2 = m2 sin (θ) R ∂r ∂r Θ ∂θ ∂θ d2 Φ + m2 Φ = 0 dϕ2 la cual es otra vez la ecuación del oscilador armónico para la función Φ. Ahora separamos las ecuaciones para R y para Θ . Se obtiene 1 ∂ ∂R 1 1 ∂ ∂Θ m2 = l (l + 1) r2 + k 2 r2 = − sin(θ) + R ∂r ∂r Θ sin(θ) ∂θ ∂θ sin2 (θ) en donde la constante la hemos llamado l (l + 1) por conveniencia. Nos queda una ecuación para cada variable, estas son d dR r2 + k 2 r2 − l (l + 1) R = 0 dr dr 1 d dΘ m2 sin(θ) + l (l + 1) − Θ = 0 sin(θ) dθ dθ sin2 (θ) 216 13. ECUACIONES DIFERENCIALES PARCIALES Estas dos ecuaciones diferenciales pueden resolverse usando los métodos de la sección anterior. Sin embargo, estas dos ecuaciones ya son conocidas. Vamos a hacer un √ cambio de variable. En la primera hagamos R = S/ r y en la segunda hagamos x = cos(θ). La ecuación para R se convierte entonces en la ecuación de Bessel y la ecuación para Θ en la ecuación de Legendre, esto es 2 ! 2 dS 1 2d S 2 2 S = 0 r +r + k r − l+ dr2 dr 2 d2 Θ dΘ m2 1 − x2 Θ = 0 − 2x + l (l + 1) − dx2 dx 1 − x2 La solución general de la ecuación de Helmholtz es entonces X Jl+1/2 (kr) √ Plm (cos (θ)) e±imϕ u(r, θ, ϕ) = r l,m Las condiciones de frontera de esta ecuación se deberan escribir en terminos de estos polinomios. Ejercicio 13.20. Grafiquen en coordenadas polares las superficies generadas por las soluciones de la ecuación de Helmholtz para m = 0 y l = 0, 1, 2, variando el valor de k. Ejemplo 13.21. Ahora utilizaremos el método de separación de variables en la ecuación de difusión en una dimensión. Subtituyamos el ansatz u(x, t) = X(x)T (t) en la ecuación (13.2) para obtener 1 ∂T D ∂2X = −c = T ∂t X ∂x2 donde estamos suponiendo que D es una constante. Separamos las variables y obtenemos las dos ecuaciones dT + cT = 0 dt c d2 X + X = 0 2 dx D La ecuación para T se pude resolver integrando directamente. Se obtiene que T (t) = T0 e−ct mientras que la segunda es la ecuación del oscilador armónico. Su solución es √ √ X (x) = c1 e −c/D x + c2 e− −c/D x , por lo que la solución de la ecuación de difusión es √ √ u(x, t) = c1 e −c/D x−ct + c2 e− −c/D x−ct . Los comportamientos de esta función son muy diversos según se tomen los valores de los parametros que la determinan. Observemos primero el caso en que c/D es positivo. Si c1 = c2 , la parte espacial de la solución es oscilante. La onda se disolvera si c es también positivo, es decir, se disipa la onda, como en la figura 3. Si c fuera negativa, la onda crece indefinidamente. El comportamiento es muy diferente si c/D es negativo. Entonces la solución no es una onda, sino una función monótona. Aunque si c es positivo, esta solución también se disipa, como se muestra en la figura 4. 2. SEPARACIÓN DE VARIABLES 217 Figure 3. . Solución de la ecuación de difusión unidimensional. Se grafica la función u(x, t) = [c1 exp(dx) + c2 exp(−dx)] exp(−ct), donde d2 = −c/D. Aquı́ se toma d imaginario con d = i y c = 1. c1 = c2 = 1 por facilidad. La onda se disipa en el tiempo. Figure 4. . Otra solución de la ecuación de difusión unidimensional. Se grafica la función u(x, t) = [c1 exp(dx) + c2 exp(−dx)] exp(−ct), donde d2 = −c/D. Aquı́ se toma d real con d = 1 y c = 1. c1 = c2 = 1 por facilidad. También aquı́ la onda se disipa en el tiempo. Comentario 13.22. De la misma forma que en la ecuación de onda, uno puede iniciar con el ansatz u(x, t) = X(x) exp(−kt). El resultado es que la función X es solución de la ecuación del oscilador armónico y la solución general se puede poner 218 13. ECUACIONES DIFERENCIALES PARCIALES como una serie, es decir (13.7) u(x, t) = X ck e √ −k/Dx + dk e− √ −k/Dx k e−kt La función entre parentesis es la forma de la función u al tiempo t = 0 (o a cualquier tiempo fijo), escrita en términos de las soluciones de la ecuación del oscilador armónico. Ejercicio 13.23. Hagan un análisis de esta solución para D > 0 y para D < 0 con la serie hasta k = 3. Grafiquen las soluciones para diferentes valores de las constantes y traten de dar una interpretación en cada caso. Ejemplo 13.24. La ecuación de Poisson es la ecuación diferencial eliptica mas importante de la fı́sica. Vamos a usar el método de separación de variables para resolverla. Vamos a iniciar primero utilizando el método para la ecuación de Laplace en dos dimensiones, esto es ∂2u ∂2u + 2 =0 ∂x2 ∂y Apliquemos el ansatz u(x, y) = X(x)Y (y) en la ecuación diferencial, esto nos da 1 ∂2X 1 ∂2u =− =c 2 X ∂x Y ∂y 2 lo que nos da dos ecuaciones separadas de la forma d2 X − cX = 0 dx2 d2 Y + cY = 0 dy 2 √ √ cuyas soluciones son X = X0 sinh ( c (x + x0 )) y Y = Y0 sin ( c (y + y0 )). Ejemplo 13.25. Hay otra forma de resolver la ecuación de Poisson. Vamos a efectuar el cambio de variable ζ = x + iy en la ecuación de Posson de dos dimensiones. Utilizando la regla de la cadena, la ecuación de Poisson se reduce a ∂u =0 ∂ζ∂ ζ̄ Si integramos esta ecuación obtenemos que u = Z (ζ) + Z̄ ζ̄ es la solución general de esta ecuación, donde la función Z es arbitraria y debe de escogerse según las condiciones de frontera del sistema. Ejercicio 13.26. Haciendo un procedimiento análogo a la ecuación de onda, den la expresión para la solución en series de la ecuación de Laplace. Comentario 13.27. Observemos que si hacemos el cambio de variable ξ = x + vt y η = x − vt en la ecuación de onda, esta se transforma en la ecuación ∂2u =0 ∂ξ∂η Por lo que la ecuación de onda también admite una solución con dos funciones arbitrarias u = f1 (ξ) + f2 (η) = f1 (x + vt) + f2 (x − vt). Notación 13.28. A las coordenadas ξ = x + vt y η = x − vt se les llama coordenadas nulas. 2. SEPARACIÓN DE VARIABLES 219 Ejercicio 13.29. Usando el metodo de separación de variables, demuestre que en coordenadas cilindricas, la ecuación de Laplace se reduce a las tres ecuaciones d2 Θ + c1 Θ = dθ2 ∂ ∂R ρ ρ + c0 ρ 2 − c1 R = ∂ρ ∂ρ ∂2Z − c0 Z = ∂z 2 0 0 0 donde u = R(r)Θ(θ)Z(z). De la forma de la solución general de la ecuación. Ejercicio 13.30. Usando el metodo de separación de variables, demuestre que en coordenadas esfericas, la ecuación de Laplace se reduce a las tres ecuaciones d2 Φ + m2 Φ dϕ2 d dR r2 − l (l + 1) R dr dr d2 Θ dΘ m2 Θ − 2x + l (l + 1) − 1 − x2 dx2 dx 1 − x2 = 0 = 0 = 0 donde u = R(r)Θ(θ)Φ(ϕ), con x = cos (θ). Ejemplo 13.31. Vamos a resolver la ecuación de Poisson para un problema con simetria esférica, es decir, donde u = R(r) y d = d(r) solamente. Se tiene entonces 1 d dR ∇2 u = 2 r2 =d r dr dr Podemos reducir este problema hasta cuadraturas, obtenemos Z Z 1 2 dr d r dr dr R= r2 Por ejemplo, si la densidad es d = d0 /r2 se obtiene que R = d0 ln (r) − c1 /r + c2 , donde c1 y c2 son constantes arbitrarias. Si se tratara de un problema gravitacional, u serı́a el potencial gravitacional y −∇u seria la fuerza. En nuestro caso, la fuerza ejercida por este potencial es − ρ0 c1 dR =− − 2 dr r r Ejercicio 13.32. Supongan que la densidad de un objeto es d0 1) d = r(r+1) 2 2) d = d0 (r 2 +1) d0 (r+1)3 3) d = Integren la ecuación de Poisson para estos casos y hagan un analisis cualitativo del comportamiento de la solución para cada uno. Calculen F = −du/dr para cada inciso y grafiquen la función F . 220 13. ECUACIONES DIFERENCIALES PARCIALES 3. Método de series de Fourier Otro método muy utilizado para resolver las ecuaciones diferenciales es de nuevo el método de desarrollo de Fourier. Usaremos los resultados del capı́tulo anterior para resolver las ecuaciones en derivadas parciales. Para esto es mejor estudiar algunos ejemplos. Ejemplo 13.33. La ecuación de onda también se puede resolver usando los desarrollos de Fourier. Escribamos la transformada de Fourier de la ecuación de onda, es decir Z ∞ 1 ∂2u ∇2 u − 2 2 exp(−ikt)dt = v ∂t −∞ k2 U = ρ v2 donde U es la tranformada de Fourier de u, es decir Z ∞ u exp(−ikt)dt U = (u, xk ) = ∇2 U + (13.8) −∞ y hemos usado las propiedades de la transformada de Fourier del ejemplo 12.38. Por lo que se sigue Z ∞ 1 U exp(ikt)dk (13.9) u= 2π −∞ En este caso, el problema de resolver la ecuación de onda se ha reducido a la solución de la ecuación (13.8). Por ejemplo, en una dimensión, esta ecuación es la ecuación del oscilador armónico. Comentario 13.34. Observemos que la solución (13.8) es de hecho la misma solución (13.6) en donde ahora la suma sobre k es llevada al lı́mite continuo. La suma se convierte en una integral. Ejemplo 13.35. De la misma forma en que la ecuación de onda se puede resolver por medio de transformadas integrales, la ecuación de difusión también puede ser reducida usando estas transformadas. Vamos a aplicar una transformación de Laplace a la ecuación de difusión. Esto es Z ∞ ∂u − ∇ · (D∇u) exp(−st)dt = 0 ∂t 0 (13.10) implica sU − u(x, 0) − ∇ · (D∇U ) = 0 donde U es la transformada de Laplace de u, es decir Z ∞ (13.11) U= u exp(−st)dt 0 Si D es una constante, la ecuación (13.10) se convierte en la ecuación de Helmholtz. Comentario 13.36. Análogo al caso de la tranformación de Fourier, observemos que la solución (13.11) es la misma que la solución (13.7), solo que en (13.11) se ha tomado la suma continua de todos los modos de k, pasando la suma a una integral. 4. FUNCIONES DE GREEN 221 4. Funciones de Green Para la resolución de ecuaciones diferenciales no homogeneas existe una técnica llamada función de Green. Básicamente consiste en escribir la función solución y la función de la parte no homogenea, en términos de una base del espacio de Hilbert correspondiente. Por sencillez se escoge la base correspondiente a las soluciones de la ecuación homogenea. Vamos a ver esto. Algoritmo 13.37. Sea Lu = 0 una ecuación diferencial. Sea Luk − λk uk = 0 una ecuación diferencial con soluciones uk en un espacio de Hilbert con el producto R interno (f, g) = f ḡ, siendo {uk }k∈I una base de este espacio de Hilbert. Sea Lu − λu = f la ecuación diferencial no homogenea que queremos resolver. Podemos escribir la función u y la función f en terminos de la base {uk }k∈I , usando la serie de Fourier en la base {uk }k∈I , es decir X X u= (u, uk ) uk := ck u k kǫI y f= X k∈I (f, uk ) uk := kǫI X fk u k . k∈I Si substituimos esto en la ecuación diferencial no homogenea, se obtiene X X ck (λk − λ) uk = fk u k k∈I k∈I como {uk } es una base del espacio de Hilbert, se sigue que las constantes ck deben cumplir ck = = (f, uk ) fk = λk − λ λ −λ Z k 1 f ūk λk − λ Entonces la solución de la ecuación diferencial no homogenea será X uk Z u = f ūk λk − λ kǫI Z X uk (x) ūk (y) f (y) dy = λk − λ kǫI Definición 13.38. A la función G(x, y) = X uk (x)ūk (y) kǫI λk − λ se le llama función de Green. Definición 13.39. A las funciones uk soluciones de la ecuación Luk −λk uk = 0 se les llama funciones propias del operador L y a las constantes λk se les conoce como valores propios del operador L. 222 13. ECUACIONES DIFERENCIALES PARCIALES En términos de la función de Green, la solución de la ecuación diferencial no homogenea se escribe como Z (13.12) u (x) = G(x, y)f (y) dy. Ejemplo 13.40. Tomemos primero una ecuación sencilla. Vamos a deducir la función de Green de la ecuación del oscilador armónico. Esto es d2 u + ω2u = 0 dx2 2 d El operador L = dx 2 y las fuciones propias de este operador, son las soluciones del oscilador armónico d2 uk − λk uk = 0 dx2 Si las condiciones de frontera son tales que u (0) = u (l) = 0, como p el de una cuerda fija vibrando, las funciones propias del operador son u (x) = 2/l sin(kπx/l) y los 2 valores propios serán λk = − (kπ/l) . De donde la función de Green es G (x, y) = ∞ kπy 2 X sin( kπx l ) sin( l ) 2 l ω 2 − kπ k=0 l Formalmente la solución de la ecuación del osclilador inhomogenea será Z l X ∞ kπy sin( kπx 2 l ) sin( l ) f (y) dy u (x) = 2 0 l k=0 ω 2 − kπ l Ejemplo 13.41. Vamos a obtener la función de Green de la ecuación diferencial de Legendre. La ecuación es d 2 du − λu = 0 1−x dx dx d d 1 − x2 dx en el intervalo [−1, 1], los Si tomamos al operador diferencial L = dx valores propios del operador L serán λn = −n (n + 1) y las funciones propias serán los polinomios de Legendre. Eso implica que la función de Green para la ecuación diferencial de Legendre es G (x, y) = ∞ 2n + 1 X Pn (x) Pn (y) 2 n=0 λ + n (n + 1) Entonces la solución de la ecuación de Legendre inhomogenea será Z 1 ∞ 2n + 1 X Pn (x) Pn (y) u (x) = f (y) dy 2 λ + n (n + 1) −1 k=0 Ejercicio 13.42. Escriban explicitamente la función de Green de las ecuaciones de 1) Laguerre 2) Bessel completa 3) Hermite 4. FUNCIONES DE GREEN 223 Comentario 13.43. Si utilizamos las propiedades de la delta de Dirac, 0 si x 6= 0 1.- δ (x) = ∞ si x = 0 R 2.- R δ (x) dx = 1 3.- f (z)δ (z − x) dzR= f (x) ∞ 1 n n 4.- δ (x − y) = (2π) n −∞ d k exp (ik · (x − y)), para k, x, y ∈ ℜ podemos dar un metodo alternativo para encontrar la función de Green. Usando la propidad 3.-, observamos que Z G(x, z)δ (z − y) dz = G (x, y) Si comparamos este resultado con (13.12), observamos que la función de Green es una solución de la ecuación diferencial LG(x, y) − λG(x, y) = δ (x − y) Comentario 13.44. En tres dimensiones, la delta de Dirac se escribe como δ (r1 − r2 ) = δ (x1 − x2 ) δ (y1 − y2 ) δ (z1 − z2 ) en coordenadas cartesianas 1 = δ (r1 − r2 ) δ (ϕ1 − ϕ2 ) δ (cos (θ1 ) − cos (θ2 )) en coordenadas esfericas r12 = δ (ρ1 − ρ1 ) δ (ϕ1 − ϕ2 ) δ (z1 − z2 ) en coordenadas cilindricas En muchas ocaciones es mas conveniente encontrar la función de Green usando estas propiedades. Usando la propiedad 1.- de la delta de Dirac, se resuelve la ecuación homogenea y luego esta solución se une a la solución de la ecuación con la delta de Dirac. Vamos a estudiar un ejemplo. Ejemplo 13.45. Regresemos una vez más a la ecuación del oscilador armónico no homogeneo, con d2 u + ω 2 u = δ (x − y) dx2 Para x 6= y, la ecuación diferencial es simplemente (13.13) d2 u + ω2u = 0 dx2 y por lo tanto tiene soluciones tales que u = A sin (ω (x + x0 )). Supongamos que A sin (ω (x + xA )) para x < y u= B sin (ω (x + xB )) para x > y Si las condiciones de frontera son como antes, u (0) = u (l) = 0, debemos tener que xA = 0 y xB = −l. Ademas observemos lo siguiente. Si integramos la ecuación (13.13) en una región infinitecimal alrededor de y, obtenemos Z y+ε 2 Z y+ε Z y+ε d 2 u + ω u = δ (x − y) = 2 y−ε dx y−ε y−ε y+ε d u = 1 dx y−ε para cuando ε → 0. Esto implica que la derivada de u tiene una descontinuidad en y igual a 1. Si volvemos a integrar esta ecuación, obtenemos que y+ε u|y−ε = 0 224 13. ECUACIONES DIFERENCIALES PARCIALES lo que implica que la función u misma no es discontinua. Si usamos este hecho, debe cumplirse que en el punto y se sigue A sin (ωy) = B sin (ω (y − l)) Aω cos (ωy) + 1 = Bω cos (ω (y − l)) Este es un sistema de ecuaciones que se puede resolver para A y B. El resultado es sin (ω (y − l)) A = ω sin (ωy) sin (ωy) B = ω sin (ωy) Por lo que la función de Green es 1 sin (ω (y − l)) sin (ωx) para 0 < x < y G (x, y) = sin (ωy) sin (ω (x − l)) para y < x < l ω sin (ωy) Para el caso de una ecuación diferencial de varias dimensiones pero con coeficientes constantes, podemos dar una forma general de la función de Green en la forma de su transformada de Fourier. Proposición 13.46. La función de Green del operador L = a0 + a1 es 1 n (2π) G (x, y) = Z ∂ ∂2 ∂2 ∂ + · · · + an + b1 2 + · · · + bn 2 ∂x1 ∂xn ∂x1 ∂xn ∞ −∞ dn k exp (ik · (x − y)) 2, 2 a0 + ia1 k1 + · · · + ian kn + b1 (ik1 ) + · · · + bn (ikn ) para k = (k1 , . . . , kn ), x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ) Demostración 13.47. Observemos que 1 n (2π) Z 1 n (2π) Z ∞ −∞ ∞ −∞ dn k ∂ ∂xs P exp i j kj (xj − yj ) ∂ G (x, y) ∂xs a0 + ia1 k1 + · · · + ian kn + b1 (ik1 )2 + · · · + bn (ikn )2 P dn k iks exp i j kj (xj − yj ) 2 a0 + ia1 k1 + · · · + ian kn + b1 (ik1 ) + · · · + bn (ikn ) 2 = = = Por lo que al subtituir G (x, y) en el operador L, se llega a LG (x, y) = δ (x − y). Como ejemplo vamos a encontrar la función de Green del operador nabla y de algunos operadores relacionados con él. Ejemplo 13.48. Encontremos la función de Green del operador ∇2 en coordenadas cartesianas. Como ya vimos en la proposición anterior, la función de Green tiene la forma Z ∞ 3 1 d k exp (ik · (x − y)) G (x, y) = (2π)3 −∞ (ik1 )2 + (ik2 )2 + (ik3 )2 Ahora hagamos la integral. Para hacer la integral nos conviene utilizar coordenadas esféricas en la variable k, esto es k1 = k sin (θ) cos (ϕ), k2 = k sin (θ) sin (ϕ) y 4. FUNCIONES DE GREEN 225 k3 = k cos (θ). Y por conveniencia podemos escoger k3 en la dirección x − y para obterner solo k · (x − y) = k |x − y| cos (θ). Entonces la integral se reduce a Z ∞ Z 2π Z π 1 G (x, y) = dk dϕ sin (θ) dθ exp (ikR cos (θ)) 3 (2π) 0 0 0 Rπ donde hemos escrito R = |x − y|. La integral 0 sin (θ) dθ exp (ikR cos (θ)) = 2 sin (kR) /kR, por lo que Z ∞ 4π 1 G (x, y) = − dk 2 sin (kR) /kR = − 3 4πR (2π) 0 Es decir, la función de Green para el operador Laplaciano es 1 G (x, y) = − 4π |x − y| Ejercicio 13.49. Encuentre por este metodo la función de Green del operador de Helmholtz ∇2 + k 2 Ejemplo 13.50. Ahora procedamos a encontrar la función de Green del operador D’Alambertiano 1 ∂2 = ∇2 − 2 2 . v ∂t Usando de nuevo la proposición 13.46, la función de Green tiene la forma Z ∞ 1 d4 k exp (ik4 · (x4 − y4 )) G (x4 , y4 ) = 4 2 2 2 2 (2π) −∞ (ik1 ) + (ik2 ) + (ik3 ) − 1/v 2 (ik4 ) donde x4 = (x1 , x2 , x3 , t) y y4 = (y1 , y2 , y3 , t′ ). Vamos a llamar a k = (k1 , k2 , k3 ) a k42 /v 2 = ω 2 y como en el ejemplo anterior R = x − y ∈ℜ3 . Ademas llamemos T = t − t′ . Con estas definiciones se obtiene que Z ∞ Z ∞ exp (−iωvT ) 1 3 dω d k exp (ik · R) G (x4 , y4 ) = − 3 k2 − ω2 (2π) −∞ −∞ La integral Z ∞ exp (−iωv (t − t′ )) 2π sin (kv (t − t′ )) / (kv) dω = 2 2 0 k −ω −∞ para para t > t′ t < t′ resuelta en el ejemplo 7.53 (en el capitulo de series de variable compleja). Si usamos este resultado obtenemos R∞ 3 1 1 sin (kv (t − t′ )) para T > 0 d k exp (ik · R) kv − 2π −∞ G (x4 , y4 ) = 0 para T < 0 Usando un procedimiento semejante al del ejemplo anterior para evaluar la primera integral, obtenemos que Z ∞ 1 sin (kvT ) = d3 k exp (ik · R) kv −∞ Z πv ∞ dk [exp (ik (R + vT )) − exp (ik (R − vT ))] = − R −∞ 2π 2 v 2π 2 v [δ (R + vT ) − δ (R − vT )] = δ (R − vT ) R R donde hemos usado la propiedad 4.- de la delta de Dirac del comentario 13.43 y donde también hemos quitado la primera delta de Dirac del resultado ya que − 226 13. ECUACIONES DIFERENCIALES PARCIALES para T > 0 ésta no contribuye. Entonces, la función de Green del operador D’Alambertiano es v δ (R − vT ) para T > 0 − 4πR G (x4 , y4 ) = 0 para T < 0 Ejemplo 13.51. Para el operador de difusión, el procedimiento es semejante. Sea ∂2 1 ∂ − ∂x2 D ∂t Claramente su función de Green esta dada por Z ∞ exp (ik1 (x − y) + ik2 (t − t′ )) 1 dk1 dk2 G (x, t, y, t′ ) = 2 2 (2π) −∞ (ik1 ) − i/Dk2 ( q (x−y)2 D − 12 π|t−t para t > t′ − 4D|t−t ′ | exp ′| = 0 para t < t′ L= integral que fue evaluada en el ejemplo 7.53. Ejercicio 13.52. Encuentren por este método la función de Green del operador de difusión completo 1 ∂ L = ∇2 − D ∂t Ejercicio 13.53. Encuentren por este método la función de Green del operador de Schrödinger sin potencial L = iℏ en coordenadas cartesianas. ∂ ℏ2 2 + ∇ ∂t 2m Part 6 TOPOLOGÍA CHAPTER 14 ESPACIOS TOPOLÓGICOS 1. Definición y Ejemplos Los espacios topológicos son la base, entre otras cosas, de la estructura matemática que le dará forma a los conjuntos. Como veremos en esta sección, basicamente dos espacios topologicos son los mismos (homeomorficos), si se puede moldear uno de ellos en plastilina y transformar este hasta llegar al otro sin romper la plastilina, sin hacerle agujeros. Por ejemplo, un vaso para tomar agua y una pelota, serı́an los mismos desde el punto de vista de la topologı́a, ası́ mismo, una taza con una aza es equivalente a una dona, etc. Estos espacios han adquirido importancia en varias ramas de la fı́sica y la ingenierı́a para poder hacer modelos. Por ejemplo, en la ingenierı́a, las imágenes que se obtienen en la computadora son dijitales, estan hechas por pixeles discontinuos. En este caso, resulta muy inexacto para algunas aplicaciones tomar el espacio métrico correspondiente. En la actualidad existen varios modelos topológicos que prometen ser más eficientes. En fı́sica, los campos estan cuantizados, el campo gravitacional es el espacio tiempo mismo, si éste está cuantizado, no pude ser metrizable y por tanto no hay una métrica que lo represente, el campo gravitacional vive entonces en espacios que no pueden ser modelados por espacios métricos simples. Los espacios topológicos podrı́an ser más exactos en modelar espacios cuantizados o los espacios cuánticos mismos. La geometrı́a diferencial es una herramienta que se utiliza hoy en dı́a intensivamente en varias ramas de la ciencia. El control automático necesita de esta herramienta en gran medida. En este capı́tulo veremos tanto la topologı́a como la geometrı́a diferencial. Iniciemos con la definición de espacio topológico. Definición 14.1. Sea X conjunto y τX ⊂ P (X) subconjunto del conjunto potencia P (X) . Un espacio topológico es el par (X, τX ) , tal que: φ y X pertenecen a τX y τX es cerrado bajo uniones arbitrarias e intersecciones finitas. Vamos a entender esta definición. Explicitamente, un espacio topológico es un subconjunto del conjunto potencia que cumple con los siguientes axiomas: i) φ, X ∈ τX es decir, el vacio y todo el conjunto siempre están en la topologı́a τX de X. ii) Si Uα ∈ τX con α ∈ J (J un conjunto de ı́ndices) entonces ∪ Uα ∈ τX , es α∈J decir, la union arbitraria de elementos de τX es un elemento de τX . iii) Ui ∈ τX con i = 1, · · · , n implica que ∩ni=1 Ui ∈ τX , es decir, la intersección finita de elementos de τX es un elemento de τX . Notación 14.2. A los elementos de τX se les llama abiertos, a sus complementos cerrados y a τX se le llama topologı́a sobre X. 229 230 14. ESPACIOS TOPOLÓGICOS Comentario 14.3. Noten que tanto el conjungo vacio φ como todo el conjunto X son abiertos y cerrados a la vez, ya que φc = X y X c = φ. Esta es una propiedad de todos los espacios topológicos. Más adelante veremos algunos ejemplos de espacios topológicos para ser más explicitos, pero por ahora vamos a definir algunos conceptos que nos van a servir durante nuestra discusión. Definición 14.4. Sea (X, τX ) espacio topológico, U ∈ τX y x ∈ U . Se dice entonces que U es una vecindad de x, se denota x ∈ Ux . Un entorno de x ∈ X es un sobconjunto N ⊂ X, tal que x ∈ N y existe Ux ⊂ N , vean la figura 1. Es decir, una vecindad de algún punto es siempre un abierto que contiene al punto, mientras el entorno es un conjunto más grande que algún abierto, que contiene al punto, pero no es un abierto él mismo. Figure 1. Ux es una vecindad de x, es decir, es un abierto que contiene a x. Un entorno de x, en cambio, es un sobconjunto de X tal que x esta en N y N contiene a una vecindad de x. Definición 14.5. Sea (X, τX ) espacio topológico. Una cubierta de A ⊂ X, es una familia de abiertos U = {Uα }α∈K tal que ∪ Uα = A. Una subcubierta V α∈K de U, es una familia V = {Vβ }β∈J tal que V es cubierta de A y Vα ∈ V implica Vα ∈ U. En forma sencilla, una cubierta de A es simplemente un conjunto de abiertos que cubre todo el conjunto A y una subcubierta de la cubierta es un subconjunto de la cubierta que también cubre A. Ahora veamos algunos ejemplos de espacios topológicos. Ejemplo 14.6. τX = P (X) es siempre una topologı́a llamada la topologı́a discreta de X en donde cada elemento es un abierto de X. Ejemplo 14.7. τX = {φ, X} es llamada la topologı́a indiscreta de X. Estos dos ejemplos nos dicen que todo conjunto tiene al menos dos topologı́as, la discreta y la indiscreta. Es decir, se puede hacer de cualquier conjunto un espacio topológico, incluso de un conjunto de borreguitos del campo. 1. DEFINICIÓN Y EJEMPLOS 231 Ejemplo 14.8. Si X = {x} , la única topologı́a que existe es τX = {{x} , φ} Ejemplo 14.9. Si X = {a, b} , existen 4 topologı́as 1 a) τX = P (X) = {φ, {a} , {b} , {a, b}} 2 b) τX = {{a, b} , φ} 3 c) τX = {φ, {a} , {a, b}} 4 d) τX = {φ, {b} , {a, b}} 3 4 A las topologı́as τX y τX se les llama topologı́as de Sierpinski. Estos son, tal vez, los espacios topológicos más simples que podemos construir. Ahora veremos otros espacios más interesantes. Vamos a iniciar con los espacios ℜn . Estos son espacios topológicos y tienen, claramente, muchas topologı́as. Sin embargo, la topologı́a que generalmente usaremos aquı́ es la siguiente: Ejemplo 14.10. X = ℜn , τX = {unión de bolas Br (x0 )}, donde Br (x0 ) = {x ∈ ℜn | |x − x0 | < r} . Esta es la topologı́a canónica de ℜn . Observen que la construcción de esta topologı́a se basa de hecho en la estructura métrica de ℜn . La demostración de que esta última es una topologı́a para ℜn la incluimos en la construcción de una topologı́a para todo espacio métrico en la siguiente proposición. Proposición 14.11. Sea (X, d) espacio métrico y τ = { conjuntos abiertos en (X, d)} . Entonces (X, τ ) es un espacio topológico. Demostración 14.12. Se tiene que: i) X y φ son abiertos en (X, d) , ya que la bola Bǫ (x) = {y ∈ X | d (x, y) |< ǫ} ⊂ X y φ es abierto trivialmente. ii) Sea {Aα }α∈I una familia arbitraria de conjuntos abiertos en (X, d) . Para cada α, Aα es unión de bolas, Aα = ∪ Bβ (Aα ) y la unión de la unión de bolas β∈K es abierto en (X, d) . n iii) Sean Ai , i = 1, · · · , n conjuntos abiertos en (X, d) y V = ∩ Ai . Si x ∈ V i=1 implica que x ∈ Ai para todo i = 1, · · · , n. Entonces existen {ri > 0}i=1,··· ,n tales que Bri (x) ⊂ Ai . Tomemos r = min {ri }i=1,··· ,n , entonces Br (x) ⊂ Bri (x) para todo i = 1, · · · , n y por tanto Br (x) ⊂ Ai para todo i = 1, · · · , n. Esto implica que Br (x) ⊂ V , i.e. V es conjunto abierto en (X, d) . Ejercicio 14.13. Demuestren que en todo espacio topológico la intesección arbitraria de cerrados es cerrada y la unión finita de cerrados es cerrada. En los espacios métricos y normados es posible definir algunos conceptos como continuidad o lı́mite debido a la existencia de la métrica o de la norma. En los espacios topológicos esto también es posible, debido a la existencia de los abiertos. Vamos a ejemplificar esto dando el concepto de lı́mite de una suseción. Veamos: Definición 14.14. Sea (X, τX ) espacio topológico y (xi ) una sucesión en X, i ∈ Z + . Se dice que (xi ) tiene el lı́mite x (o converge a x) si para todo vecindad de x, Ux ∈ τX existe un entero positivo N ∈ Z + tal que xi ∈ Ux para todo indice i ≥ N. Se denota como xi ⇀ x o lim xi = x. Como ya vimos, todo espacio métrico es topológico, usando los abiertos definidos por su métrica. Sin embargo, lo contrario no siempre se cumple, no todo espacio 232 14. ESPACIOS TOPOLÓGICOS topológico es métrico. Es en éste sentido que los espacios topológicos son más generales que los espacios métricos. A veces es posible definir una métrica en un espacio topológico, en éste caso se dice que el espacio topológico es metrizable, formalmente se dice que: Definición 14.15. Un espacio topológico (X, τX ) cuyos abiertos son los conjuntos abiertos del espacio métrico (X, d), se dice metrizable. A la topologı́a τX sobre X se le llama topologı́a inducida por la distancia d. Veamos la siguiente interesante proposición: Proposición 14.16. En todo espacio topológico (X, τX ) metrizable, para cualquier par de puntos, siempre existen dos vecindades disjuntas. Demostración 14.17. (X, τX ) es metrizable, implica que existe una distancia d que induce τX . Sean x, y ∈ X con x 6= y, entonces d (x, y) = 2ǫ para algún ǫ > 0. Tomemos las bolas Bǫ (x) = {z ∈ X | d (x, z) < ǫ} y Bǫ (y) = {w ∈ X | d (w, y) < ǫ} , los cuales son abiertos de τX . Supongamos z ∈ Bǫ (x) ∩ Bǫ (y) , se sigue que d (x, y) ≤ d (x, z) + d (z, y) < ǫ + ǫ = 2ǫ, pero d (x, y) = 2ǫ, lo cual es una contradicción. Por tanto z ∈ / Bǫ (x) ∩ Bǫ (y) se sigue entonces que Bǫ (x) ∩ Bǫ (y) = φ. De esta proposición se desprende que si queremos construir un espacio topológico metrizable, le tenemos que pedir primero que existan dos vecindades disjuntas para cada punto. Mas adelante veremos que a estos espacios se les llama espacios topológicos tipo T2 o Hausdorff. En ocaciones los conjuntos son productos cartesianos de espacios topológicos o se pueden descomponer en productos cartesianos de estos. En ese caso, si cada componente es un espacio topológico, el espacio total también lo será. Este resultado se sigue de la proposición: Proposición 14.18. El producto cartesiano de espacios topológicos es un espacio topológico. Demostración 14.19. Sean (X, τX ) y (Y, τY ) espacios y (X × Y, τX×Y ) con τX×Y = {uniones de elementos U × V ∈ τX × τY }. Entonces i) φ ∈ τX×Y ya que φ = φ × φ, y X × Y ∈ τX×Y ya que X × Y ∈ τX × τY . ′ ′ ′ ′ ii) Sean W = ∪ Uα × Vα y W ′ = ∪ Uβ × Vβ , Uα, Uβ ∈ τX , Vα, Vβ ∈ τY , α∈j β∈k para toda α ∈ J, β ∈ K. Entonces W ∩ W ′ = ∪ (α,β)∈J×K ′ ′ ′ ′ ∪ Uαγ ∪ Uα × Vα ∩ ∪ Uβ × Vβ = α∈J β∈k Uα ∩ Uβ × Vα ∩ Vβ ∈ τX×Y . iii) Sea Wα = ∪ (Uαγ × Vαγ ) ∈ τX×Y . Entonces ∪ Wα = γ∈M α∈L (α,γ)∈L×M ×Vαγ ∈ τX×Y . Al par (X × Y, τX×Y ) se le llama producto topológico de los espacios (X, τX ) y (Y, τY ). Ası́ mismo, se puede construir un espacio topológico de un subconjunto de un espacio topológico utilizando la topologı́a del espacio original. Esto se ve en la siguiente proposición: 2. CERRADURA, INTERIOR Y FRONTERA 233 Proposición 14.20. Sea (X, τX ) espacio topológico y A ⊂ X. Sea τA = {A ∩ U, U ∈ τX }. Entonces el par (A, τA ) es un espacio llamado subespacio topológico de X. Demostración 14.21. i) φ ∈ τA ya que φ∩A = φ y A ∈ τA ya que A∩X = A. ii) Sean Uα ∈ τX y A∩Uα ∈ τA , α ∈ J. Entonces ∪ A∩Uα = A∩ ∪ Uα ∈ τA . α∈J iii) Sean Ui ∈ τX , α∈J n i = 1, · · · , n y A ∩ Ui ∈ τA . Entonces ∩ A ∩ Ui = i=1 n A ∩ ∩ Ui ∈ τA . Se sigue que (A, τA ) es espacio topológico. i=1 Notación 14.22. A τA se le llama la topologı́a relativa o inducida por τX sobre X. Con esta proposición es entonces fácil ver que muchos espacios son topológicos porque heredan la topolgia de algún espacio mayor. Veamos un ejemplo importante que usaremos a lo largo de este capı́tulo. ℜ Ejemplo 14.23. Sea n ∈ Z. La n-esfera S n se define como un subespacio de como ) ( n+1 X i 2 n n+1 x =1 x = (x1 , · · · , xn+1 ) S = x∈ℜ | n+1 i=1 Ası́, S 0 = x ∈ ℜ | x2 = 1 = {1, −1} , S 1 = (x, y) ∈ ℜ2 | x2 + y 2 = 1 , S 2 = (x, y, z) ∈ ℜ3 | x2 + y 2 + z 2 = 1 etc. La topologı́a de S n será τS n = {S n ∩ U | U ∈ τℜn+1 } . De la misma forma se pueden conocer los cerrados de un subespacio topológico, conociendo los cerrados del espacio original, usando la proposición siguiente: Proposición 14.24. Sea (A, τA ) subespacio topológico de (X, τX ) . V ⊂ A es cerrado en A sı́ y sólo sı́ V = A ∩ R con R cerrado en X. Demostración 14.25. =⇒) V cerrado en A implica que existe W ∈ τA tal que V = A \ W, con W = A ∩ U , lo que implica que V = A \ A ∩ U = A ∩ U c con U c cerrado en X. ⇐=) Sea R cerrado en X. Consideremos B = A ∩ R esto implica que B c = A \ B = A \ A ∩ R = A ∩ Rc , y como Rc es abierto en X, B c es abierto en A, es decir B es cerrado en A. 2. Cerradura, Interior y Frontera En esta sección veremos tres conceptos para distinguir regiones de nuestro espacio topológico. Si nuestro conjunto tiene una topologı́a, podemos distinguir la región en donde termina el espacio, donde es adentro y afuera. Vamos a definir estos conceptos. Iniciemos por definir un punto de adherencia. Definición 14.26. Sea (X, τX ) espacio topológico, A ⊂ X y p ∈ X. Un punto de adherencia p de A es aquel que toda vecindad de p no es disjunta con A, es decir p es punto de adherencia si para toda Up ∈ τX se cumple Up ∩ A 6= φ, vean la figura 2. 234 14. ESPACIOS TOPOLÓGICOS Figure 2. Los puntos de adherencia del conjunto A. En la figura se muestran puntos de adherencia y puntos que no son de adherencia del conjunto A. Al conjunto de todos los puntos de adherencia se le llama la clausura, que nos servir’a para definir el interior del espacio. Definición 14.27. Al conjunto de puntos de adherencia se le llama clausura y se denota por A, vean la figura 3 Figure 3. Los puntos de adherencia forman la clausura del conjunto A. Hay que comparar esta figura con la figura 2, en donde se muestran los puntos de adherencia del conjunto A. Comentario 14.28. Noten que si p ∈ A, implica que Up ∩ A 6= φ, por tanto A⊂A Veamos una serie de proposiciones referentes a la cerradura de un conjunto, con el objetivo de concluir que la clausura es un conjunto cerrado. Veamos esto. 2. CERRADURA, INTERIOR Y FRONTERA 235 Proposición 14.29. A es cerrado ssi A = A. Demostración 14.30. =⇒) Sea p ∈ A, i.e. para todo Up ∈ τX se cumple Up ∩ A 6= φ. Supongamos que p ∈ / A, entonces p ∈ Ac = X \ A ∈ τX , ya que A es cerrado. Entonces existe Vp ∈ τX con Vp ⊂ X \ A o sea Vp ∩ A = φ, lo cual contradice el hecho que p ∈ A, entonces p ∈ A, i.e. A ⊂ A. ⇐=) Sea q ∈ Ac y por tanto q ∈ / A, entonces existe Vq ∈ τX con Vq ∩ A = φ i.e. Vq ⊂ Ac para toda q. Entonces Ac es abierto. Corolario 14.31. A cerrado implica que A es cerrado. Proposición 14.32. A es la intersección de todos los cerrados en X que contienen a A. Demostración 14.33. Sea R = {Rα | A ⊂ Rα , Rα cerrado}α∈J . Sea x ∈ ∩ Rα . Demostremos que x es punto de adherencia de A, o sea que x ∈ A. Sea α∈j M ∈ τX con x ∈ M . Supongamos M ∩ A = φ esto implica que A ⊂ M c que es un cerrado que contiene a A, entonces x ∈ M c ya que M c = Rα para algún α, lo que es una contradicción. Por lo tanto M ∩ A 6= φ. Sea q ∈ A y sea Rα para algún α ∈ J. A ⊂ Rα implica que A ⊂ Rα = Rα se sigue entonces que q ∈ Rα para todo α ∈ J es decir q ∈ ∩ Rα . α∈J Corolario 14.34. A es cerrado. Ejemplo 14.35. Los ejemplos más representativos y simples son en la recta real con la topologı́a canónica. Es claro que [a, b] es cerrado. La cerradura de (a, b) = [a, b], etc. Ejemplo 14.36. La cerradura del conjunto de los racionales o del conjunto de los irracionales son los reales, ya que junto a un racional siempre hay un irracional y junto a un irracional hay un racional. Ejemplo 14.37. Un ejemplo más interesante es el conjunto ℜ\Z. Observemos que ℜ\Z = ℜ. Ejercicio 14.38. Demuestren que a) A ∪ B ⊃ A ∪ B b) A ∩ B ⊂ A ∩ B De una manera análoga se puede hacer lo mismo para puntos interiores de un conjunto. Estos se definen como: Definición 14.39. Sea (X, τX ) espacio topológico y p ∈ X. p es punto interior de A ⊂ X si existe Vp ∈ τX con Vp ⊂ A, vean la figura 4. Definición 14.40. Al conjunto de puntos interiores de A ⊂ X se le llama interior y se denota por Å. Note que p ∈Å implica que existe Vp ∈ τX con p ∈ Vp ⊂ A, es decir Å⊂ A, vean la figura 5 Proposición 14.41. A es abierto ssı́ A =Å. Demostración 14.42. =⇒) Sea p ∈ A, implica que existe Vp ∈ τX con Vp ⊂ A, es decir p ∈Å se sigue entonces que A ⊂Å. ⇐=) Sea p ∈ A, como A =Å, entonces existe Vp ∈ τX con Vp ⊂ A, esto es, A es abierto. 236 14. ESPACIOS TOPOLÓGICOS Figure 4. La figura muestra los puntos interiores de A y algunos que no son puntos interiores de A. Compare esta figura con las figuras 2 y 3 anteriores sobre puntos de adherencia. Figure 5. El interior de A. Compare esta figura con la figura 3 que muestra la cerradura de A. Proposición 14.43. Å es la unión de todos los abiertos de X contenidos en A. Demostración 14.44. Sea U = {Uα | Uα ⊂ A. Uα abierto}α∈J . Sea q ∈ ∪ Uα entonces q ∈ Uβ para algún β ∈ J tal que Uβ ⊂ A, por tanto q ∈Å, sea α∈J x ∈Å. Esto implica que existe Vx ∈ τX con x ∈ Vx ⊂ A, o sea x ∈ ∪ Uα , por lo x∈J tanto Å= ∪ Uα . α∈J Corolario 14.45. Å es abierto. 2. CERRADURA, INTERIOR Y FRONTERA 237 Ejemplo 14.46. Los ejemplos más representativos y simples de nuevo son en la recta real con la topologı́a canónica. Es claro que (a, b) es abierto. El interior de [a, b]o = (a, b), etc. Ejemplo 14.47. El interior del conjunto de los racionales o del conjunto de los irracionales es vacio, ya que no hay abiertos que contengan racionales o irracionales solamente. Ejemplo 14.48. Un ejemplo más interesante es de nuevo el conjunto ℜ\Z. Observemos que (ℜ\Z)o = ℜ\Z Entonces, el interior es abierto y la cerradura es un cerrado. Para dar un criterio de donde termina el espacio topológico, se define la frontera del conjunto. La idea intiutiva es simple y su definición formal es como sigue: Definición 14.49. La frontera (topológica) de A es la intersección de las cerraduras de A y su complemento, se denota ∂A, i.e. ∂A = A ∩ Ac La frontera de A tiene las siguientes propiedades: i) ∂A es cerrado, ya que es intersección de cerrados. c ii) ∂Ac = Ac ∩ (Ac ) = Ac ∩ A = ∂A iii) A = A ∪ ∂A ya que si p ∈ A y p ∈ / A se sigue que p ∈ Ac ∩ A ⊂ Ac ∩ A = ∂A, lo que implica que A ⊂ A ∪ ∂A, de la misma forma, si p ∈ A esto implica que p ∈ A ó y si p ∈ ∂A implica que p ∈ A ya que ∂A = A ∩ Ac . iv) ∂A = φ ssı́ A es cerrado y abierto a la vez. Esto es debido a que si ∂A = φ se sigue que A = A ya que A = A ∪ ∂A, es decir A es cerrado. Por otro lado como A = A, si A ∩ Ac = φ esto implica que Ac ⊂ Ac , pero como Ac ⊂ Ac , se sigue que Ac = Ac , entonces Ac es cerrado, por lo que A es abierto. Al contrario, si A es cerrado, se sigue que A = A, A abierto implica que Ac es cerrado y por lo tanto Ac = Ac . Entonces A ∩ Ac = A ∩ Ac = φ. v) ∂X = ∂φ = φ ya que X y φ son abiertos y cerrados. vi) A es cerrado ssı́ ∂A ⊂ A, ya que A cerrado implica que A = A = A ∪ ∂A y por lo tanto ∂A ⊂ A. A la inversa ∂A ⊂ A implica que A ∪ ∂A = A = A de donde se sigue que A es cerrado. Ejemplo 14.50. Tomemos de nuevo un ejemplo T sobre la recta Treal con la topologı́a canónica. La frontera de ∂(a, b) = (a, b) (a, b)c = [a, b] (−∞, a] ∪ [b, ∞) = {a, b}, etc. Ejemplo 14.51. Regresemos al conjunto ℜ\Z. Observemos que T T ∂(ℜ\Z) = (ℜ\Z) (ℜ\Z)c = ℜ Z = Z. Es decir, el conjunto ℜ\Z es un conjunto abierto, cuya cerradura es ℜ y su frontera es Z. Esto también quiere decir que Z es un conjunto cerrado, pues es la frontera de ℜ\Z. Ejercicio 14.52. Demuestre que la frontera del conjunto de los racionales o del conjunto de los irracionales son los reales. Para terminar esta sección, vamos a definir un conjunto denso. Un conjunto es denso si su cerradura es todo el espacio, esto es: Definición 14.53. A es denso en X si A = X. 238 14. ESPACIOS TOPOLÓGICOS Ejemplo 14.54. Cláramente ℜ\Z es denso en los reales, pues su cerradura son los reales. Comentario 14.55. Note que si A es un espacio métrico, A es denso si para todo x ∈ X y para todo ǫ > 0 existe p ∈ A tal que p ∈ Bǫ (x). 3. Funciones Continuas En esta sección vamos a introducir conceptos tı́picos de espacios normados o métricos relacionados con funciones, pero usando sólo la topologı́a del espacio. Vamos a iniciar con el concepto de continuidad de funciones en espacios topológicos. Básicamente la idea es la misma que en espacios métricos, pero como aquı́ no tenemos una distancia, tenemos que usar sólo la existencia de los abiertos. La idea es entonces, que si podemos mapear un abierto, tan arbitrario (“pequeño”) como sea, y éste es también abierto en el dominio, entonces la función es continua. Formalmente se tiene: Definición 14.56. Sean (X, τX ) y (Y, τy ) espacios topológicos. Se dice que el mapeo f : X → Y x → f (x) es una función continua, si f −1 (V ) ∈ τX para todo V ∈ τY , i.e. preimágenes de abiertos son abiertas. Notación 14.57. Al conjunto de funciones continuas se denota por M ap(X, Y ) = C 0 (X, Y ). Dado que en un espacio métrico la topologı́a se construye con los abiertos del espacio, podemos demostrar una serie de proposiciones en espacios topológicos que después se pueden extender a espacios métricos o normados. Veamos la siguiente proposición. Proposición 14.58. Sean (X, τX ) y (Y, τY ) espacios topológicos f : X → Y, función. Son equivalentes 1) f es continua. 2) Para todo x ∈ X y Wf (x) ∈ τY existe Vx ∈ τX tal que f (Vx ) ⊂ Wf (x) 3) f (A) ⊂ f (A) para todo A ⊂ X 4) f −1 (B) ⊂ f −1 (B) para todo B ⊂ Y 5) Si A es cerrado en Y implica que f −1 (a) es cerrado en X. Demostración 14.59. 1) =⇒ 2) Sean x ∈ X y Wf (x) ⊂ τY ; como f es continua x ∈ f −1 (Wf (x) ) ∈ τx y entonces existe Vx ∈ τX tal que Vx ⊂ f −1 (Wf (x) ), se sigue entonces que f (Vx ) ⊂ Wf (x) . 2) =⇒ 3) Sea b ∈ A, entonces para todo Ub ∈ τX se sigue que Ub ∩ A 6= φ, entonces φ 6= f (Ub ∩ A) ⊂ f (Ub ) ∩f (A). Sea Wf (b) ∈ τY arbitrario, por 2) existe Vb ∈ τX con f (Vb ) ⊂ Wf (b) , por lo que f (Vb ) ∩ f (A) ⊂ Wf (b) ∩f (A) es decir f (b) ∈ f (A). −1 3) =⇒ 4) Sea a = f −1 (B) con B ⊂ Y ; por 3 f (A) ⊂ f (A) = f (f (B)) ⊂ B, ya que f f −1 (B) ⊂ B. Por lo tanto, también f −1 f (A) ⊂ f −1 (B) y como A ⊂ f −1 f (A) tenemos A ⊂ f −1 (B); o sea f −1 (B) ⊂ f −1 (B). 4) =⇒ 5) Sea B cerrado en Y , por 4) f −1 (B) ⊂ f −1 (B) = f −1 (B) ⊂ f −1 (B) por lo que f −1 (B) = f −1 (B), entonces f −1 (B) es cerrado en X. 5) =⇒ 1) Sea B ∈ τY , entonces B c es cerrado en Y , como f −1 (B c ) = c −1 (f (B))c , por 5) se tiene que f −1 (B) es cerrado en X, o sea f −1 (B) ∈ τX . 3. FUNCIONES CONTINUAS 239 Proposición 14.60. La composición de funciones continuas es continua. Demostración 14.61. Sean (X, τX ) , (Y, τY ) y (Z, τz ) espacios y f : X → Y, g : Y → Z funciones continuas. Se tiene que si U ′′ ∈ τz entonces g −1 (U ′′ ) ∈ τY y por lo tanto f −1 (g −1 (U ′′ )) = f ◦ g (U ′′ ) ∈ τZ . Las funciones en espacios que son productos cartesianos también tienen un criterio de continuidad. Estas funciones son interesantes y serán usadas más adelante, por ahora veamos este criterio de continuidad usando la siguiente proposición: Proposición 14.62. Sean (X, τX ) , (Y, τY ) y (Z, τZ ) espacios y f : X × Y → Z función. f es continua ssı́ para todo Wf (x,y) ∈ τz existe Ux ∈ τX y Vy ∈ τY tales que f (Ux × Uy ) ⊂ Wf (x,y) . Demostración 14.63. ⇐=) Sea Wf (x,y) ∈ τZ esto implica que existe Ux ∈ τX , Vy ∈ τY con f (Ux × Vy ) ⊂ Wf (x,y) con Ux × Vy ∈ τX × Y , esto implica que para todo (x, y) ∈ X × Y existe Ux × Vy ∈ τX × Y tal que Ux × Vy ⊂ f −1 (Wf (x,y) ) por lo que f −1 (Wf (x,y) ) ∈ τX×Y . =⇒) Sea Wf (x,y) ∈ τZ , entonces f −1 (Wf (x,y) ) ∈ τX×Y esto implica que para todo (x, y) ∈ f (Wf (x,y) ) existe Ux × Vy ∈ τX×Y tal que Ux × Vy ⊂ f −1 (Wf (x,y) ), por tanto f (Ux × Vy ) ⊂ Wf (x,y) . Mas adelante, en la construcción de los haces, vamos a necesitar el uso de la proyección, que es una función que mapea solo una parte de un producto cartesiano de espacios topológicos. Vamos a introducir ahora este concepto. Definición 14.64. Sea (X × Y, τX×Y ) espacio producto de los espacios (X, τX ) y (Y, τY ). A las funciones Πx : X×Y → X, (x, y) → x y Πy : X×Y → Y, (x, y) → y se les llama las proyecciones de X × Y , ver figura 6. Figure 6. La proyección del producto cartesiano de X y Y . El mapeo va de X × Y a X, y mapea el punto (x, y) en x. 240 14. ESPACIOS TOPOLÓGICOS Proposición 14.65. Πx y Πy son continuas. Ejercicio 14.66. Demostrar la proposición. Definición 14.67. Sea (A, τA ) subespacio topológico de (X, τX ). La inclusión de A en X es la función identidad restringida a A , i.e. i:A → X x → i(x) ≡ id |X |A También se denota como i : A ֒→ X. Proposición 14.68. Sea f continua, f = X → Y y (A, τA ) subespacio topológico de (X, τX ). Entonces la restricción de f a A es continua. Ejercicio 14.69. Demostrar la proposición Ejercicio 14.70. Demostar que i es continua. El concepto más importante en espacios topológicos es tal vez éste que nos da el concepto de isomorfismo entre ellos. Los isomorfismos aquı́ son llamados homeomorfismos. Ahora vamos a introducirlos, para esto necesitamos primero el concepto de función abierta. Iniciemos con éste. Definición 14.71. Sea f : X → Y función. f se llama abierta si imagenes de abiertos son abiertas, i.e. si para todo U ∈ τX se tiene que f (U ) ∈ τY . Definición 14.72. Un homeomorfismo es una función continua, biyectiva y abierta. Esta difinición nos garantiza entonces que la inversa es una función continua y abierta. Es decir: Proposición 14.73. Sea f homeomorfismo, entonces f −1 es continua. Demostración 14.74. Por ser biyectiva existe f −1 con f −1 ◦ f = Id |X . Por ser abierta se sigue que f (U ) = V ∈ τY para todo U ∈ τx ya que la inversa de f −1 es f . De donde que f −1 es continua. Definición 14.75. Dos espacios topológicos se dicen homeomorfos si entre ellos existe un homeomorfismo. A las propiedades invariantes bajo homeomorfismos se les llama propiedad topológica. Es decir, los homeomorfismos me dan un criterio para decir cuando dos espacios topológicos son el mismo, desde el punto de vista de espacio topológico. Es más, los homeomorfismos separan el conjunto de los espacios topológicos en clases de equivalencia. Vamos a ver esto, primero veamos que la relación: dos espacios estan relacionados entre si, si son homeomorfos, es una relación de equivalencia. hom Proposición 14.76. Sean (X, τX ), (Y, τY ), (Z, τZ ) espacios. La relación X ∼ Y “dos espacios son homeomorfos”, es una relación de equivalencia. Ejercicio 14.77. Demostrar la proposición. Entonces los espacios homeomórficos forman clases de equivalencia en las cuales se conservan sus propiedades topológicas. Estas clases sirven para clasificar a los espacios topológicos. Otra propiedad interesante y muy importante es el hecho que los homeomorfismos con la operación de composición de funciones forma un grupo, llamado el grupo de automorfismos. Veamos esto. 4. TOPOLOGÍA COCIENTE 241 Proposición 14.78. Sea (X, τX ) espacio topológico y Aut (X) = {f | f : X − X homeomorfismo}. Entonces el par (Aut(X), ◦) es un grupo llamado el grupo de automorfismos de X. Ejercicio 14.79. Demostrar la proposición. Para terminar esta sección veamos ahora el concepto de camino y trayectoria. Estos conceptos son muy usados para definir geodésicas y conceptos relacionados con estas. Formalmente, la definición de camino o trayectoria es: Definición 14.80. Sea (X, τX ) espacio topológico e I ⊂ ℜ. A una función c : I → X se le llama un camino o trayectoria en X. Entonces, una curva es la imagen de una trayectoria, esto es: Definición 14.81. Sea c ∈ C 0 (I, X). A la imagen de c se le llama la curva de c. Estos dos conceptos deben quedar claros, un camino es la función misma mientras que la curva es la imagen de la función. Son conceptos muy distintos, el primero es un elemento del conjunto de funciones y el segundo es un subconjunto del codominio de la función. Por otro lado, una reparametrización es una composición de la curva con un automorfismo monotono creciente del dominio I de ℜ de la curva, es decir: Definición 14.82. Sea ϕ ∈ Aut+ (I) = {f ∈ Aut(I) | f (t′ ) > f (t), t′ > t} y c ∈ C 0 (I, X). A la función ϕ∗ : C 0 (I, X) → C 0 (I, X), c → ϕ∗ (c) = c ◦ ϕ se le llama una reparametrización de c. Lo interesante de este concepto es que las curvas (no los caminos) son invariantes ante estos automorfismos, es decir: Proposición 14.83. Las curvas son invariantes bajo reparametrizaciones. Demostración 14.84. Sea c ∈ C 0 (I, X) trayectoria y Γc = c(I) la curva correspondiente. Entonces Γϕ∗(c) = ϕ∗ (c)(I) = c ◦ ϕ(I) = c(ϕ(I)) = c(I) = Γc . Ejemplo 14.85. Al camino c(t) = p constante. para todo t ∈ I se le llama camino Ejemplo 14.86. Sea c : [0, 1] → X con c(0) = c(1) = p. A este camino se le llama lazo o loop en X. 4. Topologı́a cociente Imaginemos que podemos construir una función entre dos conjuntos y que el dominio tiene una topologı́a. Entonces podemos mapear los abiertos del dominio al codominio y definir estos como abiertos del codominio. Surge la pregunta si ahora las imagenes de estos abiertos forman una topologı́a para el codominio. La respuesta la podemos dar en la siguiente proposición. Proposición 14.87. Sean (X, τX ) espacios Y conjunto y f : X → Y función sobre. El conjunto τf = V ∈ P (Y ) | f −1 (V ) ∈ τX es una topologı́a para Y , llamada topologı́a cociente de Y respecto a f . 242 14. ESPACIOS TOPOLÓGICOS Demostración 14.88. i) φ ∈ τf ya que f −1 (φ) = φ ∈ τX y Y esta en τf ya que f es sobre y por lo tanto f −1 (Y ) = X ; ii) Sean V1 , · · · , Vn ∈ τf , entonces f −1 (∪ni=1 Vi ) = ∪ni=1 f −1 (Vi ) ∈ τX se sigue que ∩ni=1 Vi ∈ τf ya que cada f −1 (Vi ) ∈ τX ; iii) Sea {Vα }α∈K con Vα ∈ τf . Entonces f −1 ( ∪ Vα ) = ∪ f −1 (Vα ) ∈ τX α∈K pues cada f −1 (Vα ) ∈ τX , se sigue entonces que ∪ Vα ∈ τf . α∈K α∈K Vamos a estudiar unos ejemplos de como podemos construir espacios topológicos usando mapeos sobre. Para hacer esto, lo importante es construir la función sobre con la cual construimos el espacio topológico del codominio. Sea (X, τX ) espacio topológico y ∼ una relación de equivalencia en X. La función p = X → X/ ∼ es una función sobre que asocia a cada elemento de X, x → [x] su clase. La topologı́a τX/∼ = {V ∈ P (X/ ∼) | p−1 (V ) ∈ τX } es una topologı́a para el conjunto de clases de equivancia X/∼. Sea I × I = (x, y) ∈ ℜ2 | 0 ≤ x ≤ 1, 0 < y < 1 subespacio topológico de ℜ2 . Entonces: Ejemplo 14.89. Sea la relación de equivalencia pr1 q si p = q ∈ ℜ2 i.e. (x, y) = (x , y ′ ) , ó si p 6= q (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y)) y la relación pr2 q como p = q ó si p 6= q, (p, q) = ((0, y), (1, 1 − y)) ó ((1, y), (0, 1 − y)) . Gráficamente se ve en las figura 7 y figura 8. ′ Figure 7. El producto cartesiano de los intervalos [1, 1] × [1, 1] con la relación r1 , es topologicamente igual al cilindro. Cilindro= I × I/r1 , τI×I/r1 Cinta de Möbius= I × I/r2 , τI×I/r2 2 Ejemplo 14.90. Sea I = (x, y) ∈ ℜ2 | 0 ≤ x, y ≤ 1 . Sea la relación pr3 q si p = q, ó p 6= q, (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y)) y (p, q) = ((x, 0), (x, 1)) ó ((x, 1), (x, 0)). Y la relación pr4 q si p = q ó (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y)) y (p, q) = ((x, 0), (1 − x, 1)) ó ((1 − x, 1), (x, 0)). Gráficamente se ve en las figura 9 y figura 10 2 2 Botella de Klein= I /r4 , τ 2 Toro= I /r3 , τ 2 I /r3 I /r4 5. ESPACIOS COMPACTOS 243 Figure 8. De la misma forma, el producto cartesiano de los intervalos [1, 1] × [1, 1] con la relación r2 , es topologicamente igual a la cinta de Möbius Figure 9. El producto cartesiano de los intervalos [1, 1] × [1, 1] con la relación r3 , es topologicamente igual al Toro. 5. Espacios Compactos Entre las nociones intuitivas que tenemos de conjuntos, existen dos clases que se diferencian notablemente. Existen espacios como ℜ que no tienen fin y otros como la esfera que son finitos. Por supuesto, desde el punto de vista matemático podemos dar una diferenciacion de estos espacios, ya que no es lo mismo que un conjunto no tenga fin o principio o que este conjunto sea simplemeten muy grande. Para dar una noción concreta de estos conceptos, diremos que los conjuntos como la esfera, son compactos. Basicamente la diferencia es que a la esfera la podemos cubrir con un número finito de abiertos. La definición formal es: Definición 14.91. Sean (X, τX ) espacio topológico y A ⊂ X. A es un conjunto compacto si toda cubierta U de A contiene una subcubierta finita. 244 14. ESPACIOS TOPOLÓGICOS Figure 10. De la misma forma, el producto cartesiano de los intervalos [1, 1] × [1, 1] con la relación r4 , es topologicamente igual a la Botella de Klein. Proposición 14.92. Sean (X, τX ), (Y, τY ) espacios y f : X → Y función continua. Entonces la imagen de subconjuntos compactos de X son subconjuntos compactos de Y . Demostración 14.93. Sea A subconjunto compacto de X y sea V = {Vα }α∈K una cubierta de f (A), entonces V −1 = f −1 (Vα ) α∈K es una cubierta de A. Como N A es compacto, existe una cubierta finita de A, U = f −1 (Vj ) J=1 , subcubierta −1 de V −1 . Como f f −1 (Vj ) ⊂ Vj tenemos que f (A) ⊂ f ∪N (Vj ) ⊂ ∪N j=1 f j=1 N f f −1 (Vj ) ⊂ ∪N V , por lo que {V } es una cubierta finita de f (A). j J=1 j=1 j El punto más importante de los espacio compacto es el hecho que: Proposición 14.94. Ser espacio compacto es una propiedad topológica. Demostración 14.95. Sólo daremos una idea de la demostración. Se desprende del hecho que si X es compacto, f (X) lo es y si f es homeomorfismo, f −1 (X) también es compacto. En lo que sigue hablaremos de algunas propiedades de los espacios compactos y de como se puede saber si un espacio es o no compacto. Por lo general no es fácil demostrar que un espacio es o no compacto. Pero usando las dos siguientes proposiciones, de la segunda no daremos su demostración, se puede verificar la propiedad de compacto en muchas ocaciones. Comencemos por la siguiente proposición. Proposición 14.96. Si (X, τX ) es compacto y Y tiene la topologı́a cociente τf con respecto a f : X → Y , sobre, entonces se sigue que (Y, τf ) es compacto. Demostración 14.97. Como τY = τf , f es continua y como f es sobre f (X) = Y . Entonces Y es imagen continua de un compacto por lo tanto es compacto. Proposición 14.98. [0, 1] ∈ ℜ es compacto. Otra propiedad que ayuda a verificar si un espacio es o no compoacto es la siquiente: 5. ESPACIOS COMPACTOS 245 Proposición 14.99. Todo subconjunto cerrado de un espacio compacto, es compacto. Demostración 14.100. Sea A subconjunto cerrado de X y sea U = {Uα }α∈J una cubierta de A. A cerrado implica que Ac ∈ τX y Uext = {Uα , Ac }α∈J es una cubierta de X, ya que A ⊂ ∪ Uα . Si X es compacto, entonces existe una α∈J n subcubierta finita V de Uext . Vext = {Vi , Ac }i=1 que cubre X. Por tanto V = {Vi }N i=1 es cubierta finita de A, ya que para todo Vj ∈ Vext existe Ur ∈ Uext tal que Vj = Ur , es decir, A es compacto. También es fácil imaginarse que el producto cartesiano de espacios compactos, es compacto. Formalmente se tiene la siguiente proposición: Proposición 14.101. El producto topológico (X × Y, τx×y ) es compacto sı́ cada (X, τX ) y (Y, τy ) es compacto. Demostración 14.102. Solo demostraremos una dirección. =⇒) Como X ×Y es compacto, entonces Π1 : X × Y = X y Π2 : X × Y → Y son compactos, ya que Π1 y Π2 son continuas. De estas propiedades resultan algunos ejemplos y resultados sencillos. Por N ejemplo tenemos que el n-cubo es compacto, i.e. I ⊂ ℜn es compacto. Otro concepto relacionado con espacios compactos, es el concepto de conjunto acotado, concepto que se puede dar en un espacio normado. Entonces podemos definir conjuntos acotados en los reales, utilizando su norma canónica. Intuitivamente, un espacio compacto debe ser acotado, finito. Formalmente se tiene la definición: Definición 14.103. Sea A subconjunto de (ℜn , τℜn ) y n ∈ Z + . Se dice que A es un acotado si para todo x = (x1 , · · · , xn ) ∈ A, existe K ∈ ℜ+ , tal iconjunto que x ≤ K para todo i = 1, · · · , xm . Con el siguiente teorema podemos relacionar entonces ambos conceptos. Teorema 14.104 (de Heine-Borel). Todo subconjunto de ℜn cerrado y acotado, es compacto. n hom Demostración 14.105. A acotado ⇒ A ⊂ [−K, K] n cerrado y [−K, K] compacto implica A compacto. n ≅ I para algún K. A Ahora usemos lo anterior para verificar si algunos espacios son compactos, veamos algunos ejemplos. n Ejemplo 14.106. I ⊂ ℜn es cerrado y acotado, por lo tanto es compacto. etc. Ejemplo 14.107. S n ⊂ Rn+1 es cerrado y acotado, por lo tanto es compacto, Otro concepto interesante, que sólo mencionaremos, es el de espacios paracompactos. Para definirlo, es necesario introducir la siguiente definición. Definición 14.108. Una familia F de subconjuntos de (X, τX ) es localmente finita o finita por vecindades, si para todo x ∈ X existe Ux ∈ τX tal que Ux intersecta a lo más un número finito de elementos de F . 246 14. ESPACIOS TOPOLÓGICOS Definición 14.109. Un refinamiento de U es una cubierta V = {Vβ }β∈K de (X, τX ) tel que para todo Vβ ∈ V existe Uα ∈ U con Vβ ⊂ Uα . Se denota por {Vβ }β∈J < {Uα }α∈J . Proposición 14.110. Toda subcubierta de una cubierta es un refinamiento. Demostración 14.111. Sea V una subcubierta de U, esto implica que para todo Vβ ∈ V existe Uα ∈ U con Vβ = Uα ⊂ Uα . Definición 14.112. Un espacio es paracompacto si toda cubierta tiene un refinamiento finito por vecindades. Este concepto, en cierta forma, es más general que el concepto de espacios compactos, ya que: Proposición 14.113. Todo espacio compacto es paracompacto. Demostración 14.114. X compacto implica que toda cubierta U de X tiene una subcubierta finita, esto quiere decir que cualquier vecindad Ux de x ∈ X intersecta a lo más un número finito de elementos del refinamiento V de U. Los espacios que no son compactos, se pueden en ocaciones, compactificar. La forma más simple de entenderlo es dando un ejemplo sencillo. Imaginemos la recta real, la cual se extiende indefinidamente hacia los números positivos y negativos. Ahora tomemos la recta real y unamos los puntos extremos, tanto de lado negativo como del lado positivo. Lo que se tendrá es un cı́rculo, que puede ser de radio 1, por simplicidad. Este cı́rculo es una forma compacta de escribir la recta real, donde ahora si tenemos un número que representa el infinito (en los reales, el infinito no es un número, es solo un concepto para designar muy grande). Formalmente se puede hacer este proceso, siguiendo los pasos de la siguiente proposición que enunciaremos sin demostración. ∧ Proposición 14.115. Sea (X, τX ) espacio topológico y ∗ ∈ / X. Sea τ = τX ∪ {V ∪ {∗}}V ∈K con K = {abiertos con complemento compacto en X}. Entonces ∧ ∧ 1) τ es una topologı́a para X = X ∪ {∗} ∧ ∧ 2) (X, τX ) es subespacio topológico de X, τ ∧ ∧ 3) X, τ es compacto ∧ ∧ 4) X es denso en X, τ si X no es compacto. ∧ Notación 14.116. A la topologı́a τ = τX ∪ {V ∪ {∗}}V ∈K con K = {abiertos con complemento compacto en X} se le llama la compactificación por un punto de (X, τX ) o simplemente compactificación de X. Ahora veamos el ejmplo de la compactificación de la recta real formalmente. Lo que vamos a hacer es agregarle un punto a la recta real, que podemos llamar también el infinito, pero puede ser lo que sea. Y luego definimos un homeomorfismo que vaya del cı́rculo a la recta real. Ası́ demostramos que el cı́rculo es una compactificación de la recta real. Aquı́ estudiaremos el ejemplo más general de la compactificación de ℜn , esto es: 5. ESPACIOS COMPACTOS 247 ∧ Ejemplo 14.117. La compactificación por un punto de ℜn está dada por ℜn = n ℜ ∪ {∞}, veamos esto. Consideremos la función: ∧ σ : S n →ℜn es decir x1 , · · · , xn / 1 − xn+1 si x 6= (0, · · · , 0, 1) σ : x ,··· ,x → ∞ si x = (0, · · · , 0, 1) el cual es un homeomorfismo, con inversa σ −1 : ℜ̂n → S n dada por 1 2x1 , · · · , 2xn , (x1 )2 + · · · + (xn )2 − 1 x1 , · · · , xn → 1+(x1 )2 +···+(x n )2 −1 σ : ∞ → (0, · · · , 0, 1) 1 n+1 hom hom hom Entonces S n ∼ = = ℜ̂ y la esfera S 2 ∼ = ℜ̂n . Ejemplos de esto son el cı́rculo S 1 ∼ 2 2 ∼ ℜ̂ = ℜ ∪ {∞} = C ∪ {∞} llamada esfera de Riemann, etc. A la función σ se le llama proyección estereográfica . Vean la figura 11 Figure 11. La proyección estereográfica en el plano. Esta función proyecta los puntos del cı́rculo 1 -1 en la lı́nea recta. De la misma forma, la proyección estereográfica proyecta 1 -1 cualquier esfera de dimensión arbitraria (finita) en un plano de la misma dimensión. Para terminar esta sección daremos una clasificación interesante de los espacios topológicos según su estructura. Definición 14.118. Sea(X, τX ) espacio topológico. · Se dice que X es espacio T0 si para todo x, y ∈ X , x 6= y, existe Ux con y∈ / Ux ó existe Uy con x ∈ / Uy · Se dice que X es espacio T1 si para todo x, y ∈ X, x 6= y, existe Ux y Uy con y ∈ / Ux y x ∈ / Uy · Se dice que X es espacio T2 o Hausdorff si para todo x, y ∈ X, x 6= y, existe Ux , Uy con Ux ∩ Uy = φ · Se dice que X es espacio T3 o espacio regular, si X es T1 y si para todo x ∈ X y F cerrado en X con x ∈ / F , existe Ux y U en τX con F ⊂ U y Ux ∩ U = φ 248 14. ESPACIOS TOPOLÓGICOS · Se dice que X es espacio T4 o espacio normal , si X es T1 y para todo F, G cerrados disjuntos en X, existe U, V ∈ τX tal que U ∩ V = φ y F ⊂ U, G ⊂ V , ver figura 12. Figure 12. Clasificación de los espacios topológicos. Ejercicio 14.119. Muestre que todo espacio T2 es T1 Ejercicio 14.120. Muestre que todo espacio T1 es T0 Ejercicio 14.121. Muestre que todo espacio metrizables es T2 Ejercicio 14.122. Muestre que todo espacio métrico es Hausdorff. 6. Espacios Conexos Un espacio topológico puede ser también hecho de piezas separadas, o pedazos sin unión. Cuando los espacios son hechos de una sola pieza, se dice que son espacios conexos. Para definir los espacios conexos es más sencillo definir los espacios disconexos, es decir: 6. ESPACIOS CONEXOS 249 Definición 14.123. Un espacio topológico (X, τX ) es disconexo si existen A, B ∈ τX tales que A, B 6= φ, A ∪ B = X y A ∩ B = φ. Definición 14.124. Un espacio es conexo si no es disconexo. Definición 14.125. Sea (X, τX ) espacio topológico y A ⊂ X (subespacio). A es conexo si lo es como subespacio topológico de X. Algunos ejemplos simples son: Ejemplo 14.126. El espacio de Sierpinski es conexo, ya que X = {a, b} y τX = {φ, {a, b} , {a}}, siempre, ya que {a, b} ∪ {a} = X y {a, b} ∩ {a} = 6 φ. Ejemplo 14.127. La topologı́a discreta es disconexa, ya que para todo A 6= φ, X con A ∈ P (X), Ac ∈ P (X) y A ∩ Ac = φ, con A ∪ Ac = X Por definición, en un espacio topológico el vacio y todo el espacio son abiertos y cerrados a la vez. En base a esto, un criterio para decidir si un espacio es conexo, es el siguiente. Proposición 14.128. Sea (X, τX ) espacio. X es conexo, ssı́ los únicos abiertos y cerrados a la vez son X y φ, además no existe f ∈ C 0 (X, {0, 1}) sobre. Finalmente, ser conexo es también una propiedad topolólogica. Para ver esto, veamos la siguiente proposición. Proposición 14.129. La imagen continua de conexos es conexa. Demostración 14.130. Sea f : X → Y continua y (X, τX ) espacio conexo. Supongamos que f (X), τf (x) ⊂ (Y, τY ) no es conexo. Entonces existe g : f (X) → {0, 1} continua y sobre y por lo tanto g ◦f ∈ C 0 (X, {0, 1}) y es sobre, lo que implica que (X, τX ) no es conexo, lo que contradice la hipótesis. Proposición 14.131. Ser conexo es una propiedad topológica. Demostración 14.132. Basta tomar un homeomorfismo, como es sobre y continuo, la imagen de un conexo será conexa y lo mismo para la inversa. Vamos a ver algunos ejemplos representativos: Ejemplo 14.133. Todos los intervalos en ℜ son conexos. hom Ejemplo 14.134. ℜ es conexo, ya que ℜ ∼ = (−1, 1) que es conexo. Ejemplo 14.135. S 1 es conexo ya que f : [0, 1] → S 1 , τ → (cos (2πt) , sen (2πt)) es continua. CHAPTER 15 VARIEDADES DIFERENCIALES 1. Variedades Las variedades son espacios topológicos que son localmente igual a ℜn . Este hecho permite entonces utilizar conceptos que conocemos de ℜn y usarlos en la variedad, al menos localmente (es decir, al menos para cada abierto). Por ejemplo, la diferencial es un concepto bien importante de ℜn porque nos da un modelo simple de movimiento. El movimiento es la propiedad más importante de todo objeto en la naturaleza, de hecho la fı́sica se dedica a estudiar principalmente esta caracteristica, el movimiento. Ya sea el movimiento de un objeto o el movimiento de los campos en el espacio tiempo o el movimiento de las cantidades termodinámicas en un sólido. Esa es la razón de la importancia del cálculo diferencial, tanto en ciencias exactas, como en su aplicación más directa, que es la tecnologı́a avanzada. Las variedades diferenciales son una generalización del cálculo diferencial a variedades, que llamamos variedades diferenciales. En la actualidad, las variedades diferenciales tienen aplicación en un gran número de áreas de la ciencia y la tecnologı́a. Por sólo nombrar algunas, diremos que el mejor modelo que se tiene hasta el momento del espacio tiempo es el de una variedad diferenciable. El estudio de teorı́a de campos en espacios curvos necesita para su mejor comprensión de las variedades diferenciables. La función de calor en termodinámica es una fafiana, es decir, una 1-forma, que es un concepto formal de variedades diferenciables. O el estudio moderno del control automático en ingenierı́a, usa intensivamente la herramienta de las variedades diferenciales, etc. En este capı́tulo daremos los conceptos más importantes de las variedades y de las variedades diferenciables. Vamos a empezar por su definición. Definición 15.1. Una variedad real de dimensión n es un espacio topológico de Hausdorff (M n , τM N ), tal que para todo elemento p ∈ M n existe una terna c = (Up , ψ, V ) donde Up ∈ τM n , V ∈ τℜn y ψ : Up → V , homeomorfismo. Ver figura 1. Es decir, una variedad es un espacio topológico que localmente es ℜn (o sea, para todo p ∈ M n , se tiene que Up ∈ τM n , es homeomorfo a ℜn ). Si en la definición cambiamos real por complejo, tenemos variedades complejas de dimensión n. Por hom ejemplo, C ∼ = ℜ2 es una variedad compleja de dimensión uno. Para trabajar con variedades se acostumbra definir algunos conceptos de la variedad, que estaremos usando en el futuro. Definición 15.2. Sea M n una variedad, a: · cα = (Uα , ψα , Vα ) , ∪ Uα = M n se le denomina carta sobre M n α∈J · Uα se le llama dominio de la carta. · (Uα , ψα ) se le llama sistema de coordenadas sobre Uα 251 252 15. VARIEDADES DIFERENCIALES Figure 1. Una variedad real de dimensión n es un espacio topológico de Hausdorff localmente homeomorfo a ℜn . · ψα−1 , Vα se le llama parametrización de Uα · Vα = ψα (Uα ) se le llama imagen de la cartacα · ri : ℜn → ℜ, λ1 , · · · , λn → ri λ1 , · · · , λn = λi se llama la i-esima función coordenada sobre ℜn · xiα := ri ◦ ψα es la i-esima función coordenada del sistema de coordenadas · Sean cα y cβ dos cartas cα = (Uα , ψα , Vα ) y cβ = (Uρ , ψβ , Vβ ). A las funciones ψαβ := ψβ ◦ ψα−1 : ψα (Uα ∩ Uβ ) → ψβ (Uα ∩ Uβ ) y se les llama funciones de transición, donde ψαβ es un homeomorfismo, ver figura 2. Comentario 15.3. Las funciones x1α , · · · , xnα : Uα → ℜn p → x1α , · · · , xnα (p) se pueden representar como ψα = x1α , · · · , xnα Comentario 15.4. Todos los conceptos de la definición 15.2 dependen de los abiertos del espacio topológico. Se dice entonces que son conceptos locales. Es decir, cuando hablemos de algún concepto local, significa que este concepto vale en los abiertos del espacio. Veamos algunos ejemplos de variedades. 1. VARIEDADES 253 Figure 2. En esta figura se muestran dos cartas, con sus dominios, sus sistemas coordenados, sus imágenes y sus funciones de transición. Ejemplo 15.5. (ℜ, τℜn ) es una variedad real de dimensión n con una sola carta c = (ℜn , id|ℜn , ℜn ) . Ejemplo 15.6 (Pelota). Vamos a estudiar un ejemplo quevamos a utilizar a lo largo de estos capı́tulos. Se trata de las pelotas o S 2 , τS 2 , con su topologı́a heredada de ℜ3 . La pelota es una 3-esfera y es una variedad 2-dimesional real que al menos tiene dos cartas. Estas son: c1 = U1 , σ+ , ℜ2 con U1 = S 2 \ {(0, 0, 1)} . donde el homeomorfismo σ+ esta definido como: σ+ (x, y, z) = cuya inversa esta dada por: 1 (x, y) 1−z 1 2x, 2y, x2 + y 2 − 1 2 2 1+x +y Análogamente, la segunda carta, ahora sin el polo sur, esta dada por: −1 σ+ (x, y) = c2 = U2 , σ− , ℜ2 con U2 = S 2 \ {(0, 0, −1)} . 254 15. VARIEDADES DIFERENCIALES donde el homeomorfismo σ− esta definido como: σ− (x, y, z) = 1 (x, y) 1+z cuya inversa esta dada por: 1 2x, 2y, −x2 − y 2 + 1 2 2 1+x +y 2 Entonces U1 ∪ U2 = S y σ+ y σ− son homeomorfismos. A σ+ se le llama la proyección estereográfica desde el norte y a σ− desde el sur. −1 σ− (x, y) = Ejemplo 15.7 (Esferas). Vamos ahora a generalizar el ejemplo anterior a cualquier dimensión, y formemos la variedad de las esferas. La esfera con su topologı́a heredada de ℜn , es el espacio topológico (S n , τS n ). La n-esfera es una variedad n-dimesional, real que al menos tiene dos cartas. Estas son: c1 = (U1 , σ+ , V1 ) con U1 = S n \ {(0, · · · , 0, 1)} , V1 = ℜn donde el homeomorfismo σ+ esta definido como: σ+ x1 , · · · , xn+1 = cuya inversa esta dada por: −1 x1 , · · · , xn = σ+ 1 12 1 x1 , · · · , xn n+1 1−x 2 2x1 , · · · , 2xn , x1 + · · · + xn2 − 1 1 + x + · · · + xn 2 Hay que comparar estos homeomorfismos con los de la compactificación de ℜn en el ejemplo 14.117. Analogamente, la segunda carta, ahora sin el polo sur, esta dada por: c2 = (U2 , σ− , V2 ) con U2 = S n \ {(0, · · · , 0, −1)} , V2 = ℜn donde el homeomorfismo σ− esta definido como: σ− x1 , · · · , xn+1 = cuya inversa esta dada por: −1 x1 , · · · , xn = σ− 1 1 x1 , · · · , xn 1 + xn+1 2 2x1 , · · · , 2xn , −x1 − · · · − xn2 + 1 1 + x1 2 + · · · + xn 2 Entonces U1 ∪ U2 = S n y σ+ y σ− son homeomorfismos. Igual que en el caso de las pelotas, a σ+ se le llama la proyección estereográfica desde el norte y a σ− desde el sur. En lo que sigue, vamos a trasladar el concepto de diferencial a la variedad utilizando los homeomofismos de ésta en ℜn . Como sabemos como diferenciar en ℜn , podemos definir diferenciales en la variedad. Cuando esto se puede, se dice que la variedad es suave. Recordemos la definición de suave en ℜn . Definición 15.8. Sean U y V abiertos de ℜn y ℜm respectivamente y f : U → V . Se dice que f es suave si ri ◦ f : U → ℜ tiene derivadas de todos los órdenes. 1. VARIEDADES 255 Vamos a entender lo que es una variedad diferenciable. En una forma simple se puede decir que una variedad diferenciable es basicamente una variedad en donde las funciones de transición son suaves. Otra manera de decirlo es la siguiente. Dos cartas se dicen compatibles si su función de transición es suave, es decir, una variedad se dice diferenciable si esta cubierta con cartas compatibles. Formalmente se tiene: Definición 15.9. Dos cartas cα y cβ son compatibles si i) Uα ∩ Uβ = φ ó ii) Uα ∩ Uβ 6= φ y las funciones de transición son suaves. Definición 15.10. Un atlas sobre M n es una colección de cartas compatibles que cubran M n . Definición 15.11. Una variedad real diferenciable ó suave de dimensión n es un par (M n , A) donde M n es una variedad real de dimensión n y A es un atlas sobre M n , ver figura 3. Figure 3. Una variedad real diferenciable suave de dimensión n es una variedad real de dimensión n en donde las funciones de transición son suaves. Definición 15.12. Dos atlas A y A′ sobre M n son equivalentes si cα y c′β son compatibles para toda cα ∈ A y c′β ∈ A′ . 256 15. VARIEDADES DIFERENCIALES Si tomamos todo el conjunto de atlas sobre M n , la relación A ∼ A′ con A es equivalente a A′ , es una relación de equivalencia, la cual separa el conjunto de cartas equivalentes en clases de equivalencia. Si solo usamos los representantes de las clases, lo que se tiene es una estructura direrenciable. Definición 15.13. [A], el conjunto de clases de atlas sobre M n se llama una estructura diferenciable sobre M n Intiutivamente, una variedad suave es aquella que tiene una forma suave, es decir, sin aristas o puntas como las del cuadrado o el cubo, sino es suave como el cı́rculo o la esfera. Ejercicio 15.14. Sean (M n , A) y (N n , B) variedades diferenciables. Demuestre que (M n × N n , A × B) es variedad diferenciable. Ejercicio 15.15. Sea (S n , A) , A = {c1 , c2 } del ejercicio 15.7 de esferas. Demuestre que (S n , A) es variedad diferenciable. 2. Funciones suaves El siguiente paso es definir la diferencial en una variedad diferenciable. Para hacer esto, lo que se acostumbra es transladar a ℜn por medio de los homeomorfismos, la diferenciabilidad de una función. Vamos a iniciar con la definición de diferencial de una función. Definición 15.16. Sea f : M n → ℜ una función en una variedad (M n , A). f es suave o diferenciable si f ◦ ψα−1 : ψα (Uα ) → ℜ es suave para toda carta de A, ver figura 4. Es decir, una función f que va de la variedad a los reales es suave, si su función correspondiente, la que va de ℜn a los reales, es suave. Para analizar la función f entonces, es necesario estudiar su función f ◦ ψα−1 correspondiente. Notación 15.17. Se denota al conjunto de funciones suaves por C ∞ (M n , ℜ) ó al conjunto de funciones suaves en la vecindad de x por C ∞ (M n , x, ℜ) Comentario 15.18. Observe que a) (C ∞ (M n , ℜ) , +, ·, ℜ, ·) es un álgebra conmutativa con unidad. b) (C ∞ (M n , ℜ) , +, ·) es anillo c) (ℜ, C ∞ (M n , ℜ) , +, ·) es espacio vectorial. Definición 15.19. Si f es suave en todo punto x ∈ W ⊂ M n , se dice que f es una función suave en W. Proposición 15.20. f suave implica f continua. Demostración 15.21. Sin dem. En base a la definición de una función podemos definir la diferencial de una función vectorial. Primero introduciremos la definición formal y luego explicaremos con cuidado el significado de esta. Definición 15.22. Sean M m y N n variedades y F : M m → N n función. F es suave si para toda f ∈ C ∞ (N n , ℜ) F ∗ : C ∞ (N n , ℜ) → C ∞ (M m , ℜ) F ∗ (f ) = f ◦ F es suave. Para simplificar la notación es conveniente definir el full-back de una función. 2. FUNCIONES SUAVES 257 Figure 4. Esta figura muestra la representación de una función f suave en una variedad de dimensión n. Notación 15.23. A F ∗ se le llama imagen recı́proca o “full-back” de f y se denota al conjunto de “full backs” como C ∞ (M m , N n ), ver figura 5. Figure 5. La representación del Full-back F ∗ de una función F . Como en el caso de una función de una variedad a los reales, la diferenciabilidad de una función que va de una variedad a otra se traduce a la diferenciabilidad de la función correspondiente, en este caso es la función f ◦ F , llamado el full-back, 258 15. VARIEDADES DIFERENCIALES que va de la variedad a los reales. Ası́ podemos ver su diferenciabilidad tomando en cuenta la definición 15.16 anterior. Una consecuencia interesante de las funciones suaves es que la composición de funciones suaves es también suave. Proposición 15.24. La composición de funciones suaves es suave. Demostración 15.25. Sean M m , N n y S s variedades y F : M m → N n , G : N → S s y f : S s → ℜ funciones suaves. Entonces, G suave implica G∗ (f ) = f ◦G ∈ C ∞ (N n , ℜ) es suave y F suave implica a su vez que F ∗ (G∗ (f )) = G∗ (f )◦F ∗ = (f ◦ G) ◦ F = f ◦ (G ◦ F ) = (G ◦ F ) (f ) es suave. Entonces G ◦ F es suave, se ∗ tiene que (G ◦ F ) = F ∗ ◦ G∗ . n Ejercicio 15.26. Sea cα = (Uα , ψα , Vα ) carta sobre M n variedad. Mostrar que ψα es suave y xiα = ri ◦ ψα es suave. Ejercicio 15.27. Demuestre que funciones suaves entre variedades son continuas. Ahora podemos definir los isomorfismos de variedades diferenciables, aquı́ son llamados difeomorfismos. Su definición es clara. Definición 15.28. Sea F ∈ C ∞ (M m , N n ) biyectiva. F se dice difeomorfismo si F −1 ∈ C ∞ (N n , M m ). Definición 15.29. Dos variedades se dicen difeomórficas si existe un difeodif morfismo entre ellas. Se denota M m ∼ = N n. Notación 15.30. Si dos variedades M m y N n son difeomórficas, se denota dif como M m ∼ = N n. dif La relación M m ∼ N n si M m y N n son difeomórficas M m ∼ = N n , es de nuevo una relación de equivalencia. Entonces las variedades difeomórficas están clasificadas en clases de equivalencia, lo cual ayuda mucho para su estudio. 3. Vectores Tangentes. En esta sección vamos a construir los vectores tangentes a una variedad diferenciable. Esta construcción tiene varios objetivos, pero el más importante es que con los vectores tangente podemos construir un espacio vectorial en cada punto de la variedad. A este espacio se le llama el espacio tangente. Es necesario construir tantos vectores base del espacio tangente a la variedad diferenciable como la dimensión de la variedad, o sea, tantos como la dimensión al espacio ℜn al cual la variedad diferenciable es homeomorfica. Ya construido el espacio tangente podemos construir el dual a este espacio vectorial, o sea, el espacio de las transformaciones lineales en el espacio tangente. A este espacio se le llama el espacio contangente de la variedad. Estos dos espacios son muy importantes en modelos del espacio tiempo, ya que la métrica de una variedad, es un elemento del espacio contangente, como veremos más adelante. Para simplificar un poco, cuando hablemos de variedad, vamos a referirnos realmente a variedad diferenciable, aunque ya no se especifique en el texto. Vamos a iniciar con la definición de vector tangente a una variedad. 3. VECTORES TANGENTES. 259 Definición 15.31. Sea M n variedad y x ∈ M n . Un vector tangente a la variedad en x ∈ M n es una función vx : C ∞ (M n , x, ℜ) → ℜ tal que para una carta c := (U, ψ, V ) ∈ A con x ∈ U , existe (a1 , · · · , an ) ∈ ℜn tal que para toda n P ai ∂r∂ i f ◦ ψ −1 ψ(x) (ver figura 6). f ∈ C ∞ (M n , x, ℜ) se cumple vx (f ) = i=1 Figure 6. El vector tangente formado por la función f y el espacio tangente formado por este vector tangente. Vamos a entender la definición. Primero notemos que la función f ◦ ψ −1 |ψ(x) es una función que va de ℜn a los reales y esta evaluada en el punto ψ(x). Por tanto sabemos tratar con ella. También sabemos que el gradiente de una función en ℜn es un vector tangente a la superficie que forma la función. Es por eso que podemos interpretrar a la función vx (f ) como un vector tengente a la variedad. Notación 15.32. Al conjunto de vectores tangentes sobre M n en x ∈ M n se le denota por Tx M n y se le llama espacio tangente en x. ∂ Notación 15.33. Al vector con la u-upla (0, · · · , 1, 0, · · · ) se le denota ∂x i x . de tal forma que ∂ i (f ) := ∂ i f ◦ ψ −1 ∂x x ∂ i ∂r ψ(x) n ∂x x i=1,··· ,n es entonces una base de Tx M , todo vector vx se n P ∂ . Sea xi = ri ◦ ψ ∈ C ∞ (M n , x, ℜ) observemos que ai ∂x vx = i x i=1 El conjunto escribe como ∂ ∂ ∂ (xj ) = i xj ◦ ψ −1 ψ(x) = rj ψ = δij . i (x ) ∂x x ∂r ∂ri La función vx es una derivación, es decir, cumple con la ley de superposición y con la regla de Leibnitz, esto es: Proposición 15.34. vx ∈ Tx M n es una derivación, es decir: i) vx (f + g) = vx (f ) + vx (g) ii) vx (λf ) = λvx (f ) iii) vx (f g) = vx (f ) g(x) + f (x) vx (g) para todo f, g ∈ C ∞ (M n , x, ℜ) y para todo λ ∈ ℜ. Ejercicio 15.35. Demostrar la proposición. Solo queda ver que el espacio formado por los vectores tangentes es, como se espera, un espacio vectorial. Este se demuestra en la siguiente proposición. 260 15. VARIEDADES DIFERENCIALES Proposición 15.36. La estructura (ℜ, Tx M n , +, ·) es un espacio vectorial de dimensión n, con 1.- (vx + wx ) (f ) = vx (f ) + wx (f ) 2.- (λvx ) (f ) = λ (v x(f )) . ∂ es una base del espacio vectorial llamado base El conjunto ∂x i x i=1,··· ,n coordenada. Ejercicio 15.37. Demuestren la proposición anterior. ′ ′ ′ n Comentario Observen si (U, ϕ, V ) y (U , ψ , V ) son cartas de M que ∂15.38. ∂ en x, entonces ∂xi x i=1,··· ,n y ∂x′i x i=1,··· ,n son bases del espacio tangente de la variedad en x. Se tiene que n n X X ∂ j ∂ k k α αji δjk = αki , x = x = i j ∂x′i x ∂x x j=1 j=1 es decir n X ∂ ∂ ∂ j . = x ∂x′i x j=1 ∂x′i x ∂xj x El resultado anterior nos da una fórmula, como la regla de la cádena, para cambiar de homeomorfismo en la variedad, o sea, para cambiar de sistema de coordenadas. En el lenguaje de variedades, hacer un cambio de coordenadas significa cambiar de homeomorfismo de la variedad a los reales. Hay otro tipo de cambio de coordenadas que tiene un significado dinámico, pero de eso no platicaremos aqui. Algunos ejemplos simples de variedades son los siguientes. Ejemplo 15.39. La variedad (ℜn , A = {(ℜn , id|ℜn , ℜn )}). Como ψ = id|ℜn se sigue que xi = ri ◦ id|ℜn = ri entonces n n X X ∂ i ∂ ai i . a = vx = i ∂r x i=1 ∂r i=1 iso En tal caso Tx ℜn ∼ = ℜn , donde el isomorfismo esta dado por la función iso definida n P ai ∂r∂ i → a1 , · · · , an como iso : Tx ℜn → ℜn , i=1 Ejemplo 15.40. Sean x = (x1 , · · · , xn+1 ) y vx = (vx1 , · · · , vxn+1 ). El espacio tangente de S n es ) ( n+1 X i i n n+1 x vx = 0 x ∈ S n ⊂ ℜn−1 . Tx S = vx ∈ ℜ | x · vx = i=1 La demostración detallada de esto la veremos más adelante. 4. Uno formas En todo espacio vectorial se pueden definir transformaciones lineales que forman a la vez un espacio vectorial de la misma dimensión, llamado el espacio dual (ver capı́tulo 3). Entoces podemos formar el conjunto de transformaciones lineales en el espacio tangente a una variedad y formar el espacio dual. A este espacio se le llama espacio contangente y a sus elementos, las transformaciones lineales, se les llama formas. Vamos a ver todo esto formalmente. Sean M m y N n variedades y F ∈ C ∞ (M m , N n ) con x ∈ M m . 4. UNO FORMAS 261 Definición 15.41. La diferencial de F en x es la función definida por dFx : Tx M m → TF (x) N n vx → dFx (vx ) : C ∞ (N n , F (x) , ℜ) → ℜ g → dFx (vx ) (g) := vx (F ∗ (g)) ver figura 7. Notación 15.42. Si denotamos dFx = Fx∗ , podemos escribir Fx∗ (vx ) (g) := vx (F ∗ (g)) Notación 15.43. También lo podemos denotar como dFx (vx ) (g) = vx (g ◦ F ) = vx ◦ F ∗ (g) ó dFx (vx ) = vx ◦ F ∗ Veamos con cuidado el significado de la diferencial de una función. Sea c = (U, ψ, V ) carta de M m que contiene a x ∈ U ⊂ M m y C ′ = (W, ψ, V ′ ) carta en m P ∂ N n que contiene a F (x) ∈ W ⊂ N n . Sea vx ∈ Tx M m con vx = ai ∂x y sea i x z=1 g ∈ C ∞ (N n , F (x) , ℜ). Vamos a escribir explicitamente la definición anterior en términos de las cantidades como las leemos en ℜn , para poder entender mejor el significado de la diferencial. Entonces, dFx (vx ) (g) = vx (g ◦ F ) ! m X ∂ (g ◦ F ) ai = ∂xi x i=1 = m X ai i=1 = m X ai i=1 ∂ g ◦ F ◦ ϕ−1 ϕ(x) i ∂r ∂ g ◦ ψ −1 ◦ ψ ◦ F ◦ ϕ−1 ϕ(x) ∂ri n m X X ∂ ∂ ai = g ◦ ψ −1 ψ◦F sj ◦ ψ ◦ F ◦ ϕ−1 ϕ(x) j i (x) ∂s ∂r i=1 j=1 m X n X ∂ ∂ ai = (g) yj ◦ F ∂y j F (x) ∂xi x i=1 j=1 ! m n X X ∂ i ∂ j a = (g) y ◦F ∂xi x ∂y j F (x) i=1 j=1 n X ∂ (g) = vx y j ◦ F ∂y j F (x) J=1 Vean la figura 8. Podemos escribir n X j ∂ (dFx (vx )) dFx (vx ) = ∂y j F (x) j=1 j de donde se sigue que (dFx (vx )) = vx y j ◦ F 262 15. VARIEDADES DIFERENCIALES Figure 7. La diferencial dF de una función F . La diferencial de F es un mapeo entre los espacios tangente de la variedad en x y de la variedad imagen en F (x). Figure 8. Figura que representa la construcción de la diferencial de F . Aquı́ se representan las variedades y mapeos que toman parte en la explicación de la definición. Sólo falta demostrar que efectivamente la diferencial dFx es una transformación lineal. Esta demostración la dejaremos como ejercicio. Ejercicio 15.44. Demostrar que dFx es lineal. Para poder decir que la diferencial dFx es realmente una diferencial, serı́a de esperarse que se cumpliera la regla de la cadena. Este es el caso, vamos a demostrar la siguiente proposición. Proposición 15.45 (La regla de la cadena). d (G ◦ F )x = dGF (x) ◦ dFx 4. UNO FORMAS 263 Demostración 15.46. Sea M m , N n y S s variedades y F ∈ C ∞ (M m , N n ) y G ∈ C ∞ (N n , S s ). Sea x ∈ M m y vx ∈ Tx M m , entonces d (G ◦ F )x (vx ) = = = ∗ vx ◦ (G ◦ F ) = vx (F ∗ ◦ G∗ ) (vx ◦ F ∗ ) ◦ G∗ = dGF (x) (vx ◦ F ∗ ) dGF (x) (dFx (vx )) = dGF (x) ◦ dFx (vx ) Un ejemplo simple es la diferencial de la indentidad. Ejemplo 15.47. d id|M n = id|Tx M n ya que d id|M n : Tx M m vx = vx → Tx M m → d id|M n (vx ) : C ∞ (M m , ℜ) → ℜ g → d id|M n (vx ) (g) ∗ id|M n (g) = vx (g ◦ id|M n ) = vx (g) es decir d id|M n (vx ) = vx Un caso especial de diferencial muy importante es cuando la diferencial es una función inyectiva, entonces se dice que la diferencial es una inmersión: esto es: Definición 15.48. Una inmersión de M m en N n , es una función suave F : M → N n con diferencial dFx inyectiva. m Ahora vamos a definir las formas formalmente. Las formas son diferenciales de una función que va de la variedad a los reales. Como los reales también son una variedad, podemos usar la definición de la diferencial en estas funciones. La diferencia es que vamos a identificar al espacio tangente de los reales con los reales mismos. De hecho son el mismo espacio. Veamos esto formalmente. Definición 15.49. Sea M n variedad, f ∈ C ∞ (M n , ℜ) y x ∈ M n . Entonces dfx : Tx M n vx con → Tf (x) ℜ, → dfx (vx ) = λ d ∈ Tf (x) ℜ, λ ∈ ℜ dr d (r) = λ = vx (f ∗ (r)) = vx (r ◦ f ) = vx (f ) dr (recuerden que r : ℜ → ℜ tal que r (x) = x). Esto es d dfx (vx ) = vx (f ) ∈ Tf (x) ℜ. dr d d → J λ dr = λ, entonces Consideremos el isomorfismo J : Tf(x) ℜ → ℜ, λ dr d n la composición J ◦ dfx : Tx M → ℜ, vx → J (df (vx )) = J vx (f ) dr = vx (f ) es un homomorfismo de espacios lineales y J ◦ dfx es un elemento del espacio dual de Tx∗ M n que llamaremos el espacio cotangente de la variedad en x. A los elementos de este espacio, que denotamos como Tx∗ M n , se llaman 1-formas en x y se denotan como wx ∈ Tx∗ M n . Identificamos entonces Tf(x) ℜ con ℜ (a través del isomorfismo J), por lo que podemos escribir dfx (vx ) (r) = λ dfx : Tx M n vx → ℜ, → dfx (vx ) = vx (f ) . 264 que 15. VARIEDADES DIFERENCIALES Comentario 15.50. Tomemos f = xi ∈ C ∞ (U, ℜ), dxi x : Tx M n → ℜ tal n X ∂ i x = ai . vx → dxi x (vx ) = vx xi = aj j ∂x x j=1 ∂ En particular tomemos vx = ∂xj x , entonces ∂ ∂ i = xi = δji , dx x ∂xj x ∂xj x se sigue que dxi x i=1,··· ,n es una base del espacio Tx∗ M n llamada la base coordenada dual o base de las 1-formas. De una forma natural podemos definir campos vectoriales o campos de formas, simplemente definiendo los espacios vectoriales para cada punto de la variedad. Vamos a definir entoces los campos vectoriales y de formas. ∂ base de Tx M n . Un campo Definición 15.51. Sea M n variedad y ∂x i x vectorial, es una asignación suave de vectores para cada punto x ∈ M n . Notación 15.52. Se denota v (f ) : M n → ℜ, suave, tal que v (f ) (x) := vx (f ). n P ∂ Se tiene que v = ai ∂x i , tal que r−1 v (f ) (x) = n X ai (x) i=1 i n ∂ (f ) , ∂xi x donde a : M → ℜ son funciones suaves para toda i = 1, · · · , n. Notación 15.53. Al conjunto de campos vectoriales en M n se denota por T M n. Comentario 15.54. Observen que v : C ∞ (M n , ℜ) → C ∞ (M n , ℜ). Definición 15.55. Sea M n variedad y dxi x i=1,··· ,n base de Tx∗ M n . Una 1-forma en M n es una transformación lineal para cada Tx M n con x ∈ M n . Se denota df (v) : Mn → ℜ df (v) = v(f ) suave, tal que df (v)(x) = dfx (vx ). Notación 15.56. Al conjunto de las 1-formas en M n se denota por emos que n X bj dxj df = j=1 tal que df (v)(x) = dfx (vx ) = n X j=1 con bj : M n → ℜ funciones suaves. bj (x) dxj x (vx ), Vn . Ten- 4. UNO FORMAS 265 Notación 15.57. Se suele denotar al “producto” de 1-formas con vectores como n n P P ∂ ai ∂x bj dxj y v = hw, vi = w(v). Si w = j , entonces i=1 j=1 hw, vi = * n X ∂ ai i bj dx , ∂x i=1 j=1 n X j + ∂ j a bj dx , := ∂xi j=1 i=1 n X n X ∂ i j a bj dx = , ∂xi j=1 i=1 n X n X como para cada punto x ∈ M n se cumple dxj x hw, vi = Observen que df : T M → C ∞ (M n , ℜ). n X ai b i . ∂ ∂xi x i = δij , tenemos que i=1 Tenemos que T ∗ M n es un espacio vectorial para cada punto x ∈ M n . Su dual en cada punto será isomórfico a T M n en ese punto. Nosotros vamos a identificar ambos espacios. ∗ Definición 15.58. Como (Tx∗ M n ) = Tx M n para toda x ∈ M n . Se tiene que si w ∈ T ∗ M n y v ∈ Tx M n , entonces vx (wx ) ∈ ℜ, con vx (wx ) = wx (vx ) = hwx , vx i. El ejemplo de las esferas es muy representativo y simple para entender el material anterior. Vamos a tomar de nuevo este ejemplo. Ejemplo 15.59. Sea S 2 = (x, y, z) ∈ ℜ3 | x2 + y 2 + z 2 = 1 . Ya sabemos que −1 los homeomorfismos de la esfera son σ± : ℜ3 → S 2 σ± : S 2 → ℜ3 dados por σ± (x, y, z) = −1 σ± (u, v) = (x, y) = (u, v) 1∓z 2u, 2v, ±(u2 + v 2 − 1) 1 + u2 + v 2 Entonces los vectores tangentes en S 2 estarán dados por ∂ ∂ −1 (f ) = f ◦ σ+ ∂x1+ x ∂u σ+ (x) ∂ 2v u2 + v 2 − 1 2u = , f , ∂u 1 + u2 + v 2 1 + u2 + v 2 , 1 + u2 + v 2 σ+ (x) ∂ ∂y ∂f ∂z ∂f ∂x ∂f = f (x, y, z) + + = ∂u ∂u ∂x ∂u ∂y ∂u ∂z σ+ (x) σ+ (x) ∂ 1 ∂ ∂ 2 2 = (f ) − 4uv + 4u 2 2 1−u +v ∂x ∂y ∂z σ+ (x) (1 + u2 + v 2 ) Podemos escribir ya que ∂ ∂ ∂ ∂ = 1 − z − x2 − xy + x(1 − z) 1 ∂x+ ∂x ∂y ∂z 266 15. VARIEDADES DIFERENCIALES x2 + y 2 u2 + v 2 σ+ (x) = 2 y (1 − z) Análogamente 2 (1 − z) − x2 + y 2 1 − u2 + v 2 σ+ (x) = 2 (1 − z) ∂ ∂ ∂ ∂ = −xy + 1 − z − y2 + y(1 − z) ∂x2+ ∂x ∂y ∂z Como era de esperarse, los vectores base del espacio tangente de S 2 son perpendiculares al radio vector, es decir: (x, y, z) · 1 − z − x2 , −xy, x (1 − z) = (x, y, z) · −xy, 1 − z − y 2 , y (1 − z) = ∂ ∂x1+ ∂ 0=r· 2 ∂x+ 0=r· Es decir, los vectores tangente, son realmente tangentes a la esfera en cada punto, pues son perpendiculares alradio vector r. Entonces el espacio tangente en el punto x a una pelota es Tx S 2 = y ∈ ℜ3 |y · x = 0 n o Ejercicio 15.60. Calcular ∂x∂1 , ∂x∂2 . Demostrar que ∂x∂1 , ∂x∂2 son li. − − ± ± Ejemplo 15.61. Los duales al E espacio tangente, el espacio contangente, se D i ∂ encuentran usando la regla dx , ∂xj = δji , se obtiene dx1+ = dx dy xdz ydz , dx2+ = + + 2 2 1−z 1−z (1 − z) (1 − z) Estos dos vectores (transformaciones lineales) del espacio contangente son dos unoformas definidas en la carta sin polo norte. Ejercicio 15.62. Calcular dx1− , dx2− . Demostrar que dx1± , dx2± son li. Ejemplo 15.63. Vamos a encontrar los vectores base de Tx S 2 cambiando las coordenadas a coorenadas esfericas, definidas por (15.1) x = r sin(θ) cos(ϕ) y = r sin(θ) sin(ϕ) x = r cos(θ) Cláramente, para r constante, las coordenadas cumplen que x2 + y 2 + z 2 = r2 , o sea, ya estan restringidas a la esfera. Con esta coordenadas se puede ver que los vectores tangente ∂ ∂x ∂ ∂y ∂ ∂z = = = ∂ y 2 + y ∂ϕ ∂ x x2 + y 2 ∂ϕ ∂ 1 −p x2 + y 2 ∂θ − x2 4. UNO FORMAS 267 Usando estos resultados, los vectores base del espacio tangente en coordenadas esféricas se leen: ∂ sin(ϕ) ∂ ∂ = (cos(θ) − 1) cos(ϕ) + ∂x1+ ∂θ sin(θ) ∂ϕ ∂ ∂ cos(ϕ) ∂ = (cos(θ) − 1) sin(ϕ) − ∂x2+ ∂θ sin(θ) ∂ϕ De la misma forma podemos ahora calcular los duales, las uno formas del espacio cotangente. Se obtiene: 1 (cos(ϕ)dθ + sin(ϕ) sin(θ)dϕ) dx1+ = cos(θ) − 1 1 dx2+ = (sin(ϕ)dθ − cos(ϕ) sin(θ)dϕ) cos(θ) − 1 Claramente podriamos definir como bases del espacio tangente y cotangente una 1 2 combinacion lineal de estos vectores, por ejemplo w+ = (cos(θ) − 1)dx1+ w+ = 2 1 2 (cos(θ)−1)dx+ y a los vectores X+ , X+ como sus duales, de tal forma que podamos 1 2 1 2 , al multiplicar hacer lo mismo con los correspondientes vectores w− w− X+ , X+ ′ los vectores base por (cos(θ) + 1). Entonces los vectores w s y X ′ s obtendrán la misma forma en ambas cartas, ambos serı́an ∂ sin(ϕ) ∂ 1 1 cos(ϕ) + X = r ∂θ sin(θ) ∂ϕ ∂ ∂ cos(ϕ) 1 2 sin(ϕ) − X = r ∂θ sin(θ) ∂ϕ (15.2) dw1 = r (cos(ϕ)dθ + sin(ϕ) sin(θ)dϕ) 2 = r (sin(ϕ)dθ − cos(ϕ) sin(θ)dϕ) dw donde hemos puesto el factor r en caso de que el radio de la esfera no sea 1 sino r. Ejercicio 15.64. Calcular ∂ , ∂x∂2 ∂x1+ + y dx1− , dx2− en coordenadas esféricas. En lo que sigue vamos a introducir otros dos conceptos en variedades diferenciales. El primero es el paréntesis de Lie y el segundo es el concepto de vectores ϕ-relacionados. Ambos conceptos son muy usados en ciencias e ingenierı́a. Con el paréntesis de Lie los espacios tangente pueden tener estructura de álgebra. Esta estructura puede ser muy importante para caracterizar a la variedad, si por ejemplo, los vectores estan asociados a alguna simetrı́a de la variedad. Esto lo veremos más adelante. Por ahora definamos los paréntesis de Lie. Definición 15.65. Sea M n variedad y X y Y ∈ T M n . Se define [X, Y ] = X ◦ Y − Y ◦ X. A la función [ , ] : T M n × T M n → T M n (X, Y ) → [X, Y ] se denomina producto ó paréntesis de Lie de los campos vectoriales. De la definición se siguen sus propiedades y el hecho que con el paréntesis de Lie, el espacio tangente es una álgebra. Proposición 15.66. El paréntesis de Lie tiene las siguientes propiedades i) [X, Y ] = − [Y, X] ii) [αX + βY, Z] = α [X, Z] + β [Y, Z] , [X, αY + βZ] = α [X, Y ] + β [X, Z] iii) [[X, Y ] , Z] + [[Y, Z] , X] + [[Z, X] , Y ] = 0 (Identidad de Jacobi). 268 15. VARIEDADES DIFERENCIALES iv) La estructura (T M n , +, [, ]; ℜ, ·) es una álgebra, llamada Álgebra de Lie de los vectores tangentes. Ejercicio 15.67. Demostrar la proposición. Por supuesto los vectores coordenados conmutan, esto se ve en la siguiente proposición. i h ∂ ∂ =0 Proposición 15.68. ∂x i , ∂xj ∂ ∂ ∂ ∂ −1 ◦ ψ para la Demostración 15.69. Tomamos ∂x i ∂xj f = ∂xi ∂r j f ◦ ψ carta c = (U, ψ, V ) ∂ ∂ −1 −1 = ◦ψ (f ◦ ψ ) ◦ ψ ◦ ψ ∂ri ∂rj ∂ ∂ (f ◦ ψ −1 ) ◦ ψ = ∂ri ∂rj ∂ ∂ −1 = (f ◦ ψ ) ◦ ψ ∂rj ∂ri ∂ ∂ −1 −1 ◦ψ (f ◦ ψ ) ◦ ψ ◦ ψ = ∂rj ∂ri ∂ ∂ = (f ) ∂xj ∂xi ∂ ∂ −1 n (Hay que recordar que ∂x i (f ) = ∂r∂i (f ◦ ψ −1) ◦ ψ, ya que para cada punto x ∈ M ∂ ∂ se tiene ∂xi (f )(x) = ∂xi x (f ) = ∂ri (f ◦ ψ )|ψ(x) ). Para calcular con los paréntesis de Lie, es conveniente trabajar en una base coordenada. En terminos de una base coordenada, se puede ver que los parentesis de Lie de dos vectores se ven como: n P i ∂ [X, Y ] ∂x Proposición 15.70. [X, Y ] = i , con i=1 n X ∂ ∂ i Xj j Y i − Y j j Xi [X, Y ] = ∂x ∂x j=1 Demostración 15.71. Por substitución directa. Supongamos que existe una función ϕ que va de una variedad a otra. En la primera variedad se tiene un vector X y en la segunda variedad se tiene un vector Y . Si mapeamos el vector X con la diferencial dϕ, este mapeo no necesariamente tiene algo que ver con el vector Y . Sin embargo, si para todo punto de la variedad se tiene que el mapeo del vector X por medio de dϕ corresponde al vector Y evaluado en el punto por ϕ, se dice que estos dos vectores estan relacionados por medio de ϕ, que estan ϕ-relacionados. Es decir, se tiene la definición: Definición 15.72. Sean M m y N n variedades y ϕ ∈ C ∞ (M m , N n ). Se dice que X ∈ T M m y Y ∈ T N n están ϕ -relacionados si para toda x ∈ M m se sigue que dϕx (Xx ) = Yϕ(x) , vean la figura 9. De aquı́ se desprenden varias propiedades muy interesantes que despues se usaran. Vamos a ver las más importantes. 4. UNO FORMAS 269 Figure 9. Los vectores X y Y están ϕ relacionados, si para todo elemento x de la variedad M m se sigue que dϕx (Xx ) = Yϕ(x) . Proposición 15.73. Sean X ∈ T M m y Y ∈ T N n . X y Y están ϕ -relacionados ssı́ ϕ∗ ◦ Y = X ◦ ϕ∗ Demostración 15.74. Sea f ∈ C ∞ (N n , ℜ) y x ∈ M m . Se sigue que dϕα (Xx )(f ) = Xx (ϕ∗ (f )) = Xx ◦ ϕ∗ (f ) = X (ϕ∗ (f )) (x) = X ◦ ϕ∗ (f )(x) = Xx (f ◦ ϕ) = Yϕ(x) (f ) = Y (f ) (ϕ(x)) = Y (f ) ◦ ϕ (x) = ϕ∗ (Y (f )) (x) = ϕ∗ ◦ Y (f )(x) ssi ϕ∗ ◦ Y = X ◦ ϕ∗ , es decir, el diagrama ϕ∗ C ∞ (M m , ℜ) ←− X↓ ϕ∗ C ∞ (M m , ℜ) ←− C ∞ (N n , ℜ) Y ↓ C ∞ (N n , ℜ) conmuta. Si ahora aplicamos la definición de vectores ϕ-relacionados al mismo vector, obtenemos la definición de ϕ-invariante. Formalmente la definición es: Definición 15.75. Sean X ∈ T M n y ϕ ∈ C ∞ (M m , M m ). X se llama ϕinvariante o invariante bajo ϕ si X ◦ ϕ∗ = ϕ∗ ◦ X, es decir si dϕx (Xx ) = Xϕ(x) para toda x ∈ M n Comentario 15.76. Observemos que si ϕ : M m → N n , entonces dϕ : T M m → T N n 270 15. VARIEDADES DIFERENCIALES tal que dϕ(X)(g)(y) = dϕ(X)y (g) con ϕ(x) = y ∈ N n , x ∈ M m . Si ϕ es un dif difeomorfismo entre M m ∼ = N n , entonces dϕx (Xx ) (g) = Xx (g ◦ ϕ) = dϕϕ−1 (y) Xϕ−1 (y) (g) = Xϕ−1 (y) (g ◦ ϕ) = X (ϕ∗ (g)) ϕ−1 (y) = X (ϕ∗ (g)) ◦ ϕ−1 (y), entonces se tiene la identidad dϕ (X) (g) = X (ϕ∗ (g)) ◦ ϕ−1 Para terminar este capı́tulo vamos a introducir una transformación lineal equivalente a la diferencial, pero ahora en los espacios contangente a una variedad. La manipulación y sus propiedades son muy parecidas a las de la diferencial. Definición 15.77. Sean M m y N n variedades y F : M m → N n suave. Sea x ∈ M m y y = F (x) ∈ N n . Con F podemos inducir la función Fy∗ : Ty∗ N n → Tx∗ M m , wy → Fy∗ (wy ) : Tx M m → ℜ, Xx → Fy∗ (wy ) (Xx ) := wy (dF |x (Xx )) y notemos que wy (dF |x (Xx )) = wy ◦ dF |x (Xx ) = wy ◦ Fx∗ (Xx ), es decir, se tiene la identidad Fy∗ (wy ) = wy ◦ Fx∗ . A esta función también se le conoce con el nombre de pull-back, su definición es: Definición 15.78. A Fy∗ (wy ) se le denomina la imagen reciproca o “pullback” de la 1 forma wy por F . El Pull-back es una tranformación lineal entre los espacios contangentes. Proposición 15.79. Fyx es una transformación lineal. Ejercicio 15.80. Demostrar la proposición. A esta transformación lineal a veces también se le llama la diferencial del espacio cotangente, ya que tiene propiedades de una diferencial, por ejemplo cumple la regla de la cadena, veamos. Proposición 15.81. (G ◦ F )∗G◦F (x) = FF∗ (x) ◦ G∗G◦F (x) Demostración 15.82. Sea M m , N n y S s variedades, F ∈ C ∞ (M m , N n ), G ∈ ∗ s C (N n , S s ), x ∈ M m , wF (x) ∈ TF∗ (x) N n , vG◦F (x) ∈ TG◦F (x) S . Entonces se tiene ∞ 4. UNO FORMAS si wF (x) = G∗G◦F (x) vG◦F (x) , = FF∗ (x) wF (x) = = = = = = vean la figura 10. FF∗ (x) G∗G◦F (x) vG◦F (x) FF∗ (x) ◦ G∗G◦F (x) vG◦F (x) wF (x) ◦ dF |x G∗G◦F (x) vG◦F (x) ◦ dF |x vG◦F (x) ◦ dG|F (x) ◦ dF |x vG◦F (x) ◦ d (G ◦ F ) |x ∗ (G ◦ F )G◦F (x) vG◦F (x) , Figure 10. Esquema de la demostración de la proposición 15.81. 271 CHAPTER 16 TENSORES Y P-FORMAS 1. Tensores El material de los dos capı́tulos anteriores es fundamentalmente para estudiar los tensores. La importancia de los tensores en ciencias exáctas e ingenierı́a, es el hecho de que los tensores son cantidades matemáticas que no dependen del sistema coordenado. El significado de “no depende” del sistema de coordenadas la daremos en este capı́tulo, pero estas cantidades matemáticas han servido bien para modelar cantidades fı́sicas importantes, como los campos. La idea es que estas cantidades fı́sicas realmente no dependen del observador, es decir, las cantidades fı́sicas no importa si el observador las mide con una vara de un metro o una de un centimetro, o con coordenadas catesianas o esfericas. El objeto fı́sico no se ve afectado por la forma de medirlo o de observarlo. Esta condición la cumplen los tensores, por eso se usan para modelar las cantidades fı́sicas observables. Desde el punto de vista matemático, un tensor es una función multilineal, es decir, una función de varias variables, pero la función es lineal en cada entrada. El dominio es el producto cartesiano de un espacio vectorial varias veces, con su dual, también varias veces. Nosotros vamos a tomar ese espacio vectorial como el espacio tangente a una variedad y su dual como el espacio cotangente a la variedad. Asi, la idea es definir tensores que viven en variedades. Empecemos por la definición formal de un tensor. Definición 16.1. Sea V espacio vectorial y V ∗ su espacio dual. Un tensor del tipo (r, s) es una transformación multilineal T tal que T : V ∗ × ···× V ∗ × V × ···× V → {z } | {z } | r veces s veces → w1 , · · · , wr , v1 , · · · , vs ℜ, T w1 , · · · , wr , v1 , · · · , vs Es decir, se tiene que si v1 , · · · , vs ∈ V y w1 , · · · , wr ∈ V ∗ , son transformaciones lineales en el espacio vectorial V , se sigue que = αT w1 , · · · , wr , v, v2 , · · · , vs + T w1 , · · · , wr , αv + βw, v2 , · · · , vs βT w1 , · · · , wr , w, v2 , · · · , vs para cada entrada del tensor. Notación 16.2. Al conjunto de tensores lo denotamos como T ∈ V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ y se le llama producto tensorial. Con la suma (T + T ′ ) w1 , · · · , wr , v1 , · · · , vs 273 = T w1 , · · · , wr , v1 , · · · , vs + T ′ w1 , · · · , wr , v1 , · · · , vs 274 16. TENSORES Y P-FORMAS y el producto por escalar para todo (αT ) w1 , · · · , wr , v1 , · · · , vs = αT w1 , · · · , wr , v1 , · · · , vs , la estructura T, T ′ ∈ V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ , α ∈ ℜ, (ℜ, V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ , +, ·) es un espacio vectorial. A los elementos del espacio tensorial se les denota por X1 ⊗ · · · ⊗ Xr ⊗ µ1 ⊗ · · · ⊗ µs , este elemento denota el tensor tal que X1 ⊗ · · · ⊗ Xr ⊗ µ1 ⊗ · · · ⊗ µs w1 , · · · , wr , v1 , · · · , vs = X1 w1 · · · Xr (wr ) µ1 (v1 ) · · · µs (vs ) = w1 , X1 · · · hwr , Xr i µ1 , v1 · · · hµs , vs i dados X1 , · · · , Xr ∈ V y µ1 , · · · , µs ∈ V ∗ . Al espacio de tensores lo denotamos también por Tsr = V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ . {z } | {z } | r veces s veces Sean R ∈ Tsr y S ∈ Tqp , el producto entre tensores se define entonces como el tensor r+p Ts+q tal que R µ1 , · · · , µr , v1 , · · · , vs · R ⊗ S µ1 , · · · , µr+p , v1 , · · · , vs+q = S µr+1 , · · · , µr+p , vs+1 , · · · , vs+q La estructura (Tsr , +, ·, ⊗, ℜ, ·) es una álgebra llamada Álgebra tensorial. Sea {ea }a=1,··· ,n y {ea }a=1,··· ,n bases de V y V ∗ , espacios vectoriales de dimensión n y su dual. Entonces podemos escribir tensores T ∈ Tsr en términos de esa base como n X ···ar Tba11···b ea1 ⊗ · · · ⊗ ear ⊗ ebi ⊗ · · · ⊗ ebs , T = s ya que a1 ···ar ,b1 ···bs ea1 ⊗ · · · ⊗ ear ⊗ ebj ⊗ · · · ⊗ ebs ⊂ Tsr será una base del espacio tensorial y las componentes de T están dadas por ···ar Tba11···b = T (ea1 , · · · , ear , eb1 , · · · ebs ) . s Como se ve, debido a la definición de tensores, la notación es muy extensa. Mas adelante cambiaremos de notación por una mas simple, para reducir la escritura, pero por ahora la mantendremos con el objetivo de que no vaya a haber confusión. La propiedad importante de los tensores es la de no depender del sistema coordenado. Aquı́ vamos a ser más generales, vamos a demostrar que los tensores son invariates al cambiar la base. Proposición 16.3. Los tensores son invaraintes bajo cambios de base. Demostración 16.4. Sean {ea }a=1,··· ,n y {e′a }a=1,··· ,n bases de V y {ea }a=1,··· ,n y {e }a=1,··· ,n bases de V ∗ tal que {ea }a=1,··· ,n sea dual a {ea }a=1,··· ,n y {e′a }a=1,··· ,n , n n P P Λab eb donde Λba y Λba eb y e′a = sea dual a {e′a }a=1,··· ,n . Se sigue que e′a = ′a b=1 b=1 1. TENSORES 275 Λab son coeficientes de matrices no singulares n × n. Por la dualidad de las bases, se sigue que * n + n n n n X X X XX b ′b ′ b b c d δa = e , e a = e , e a = Λc e , Λ a ed Λbc Λda δdc = Λbc Λca . c=1 Es decir n P c=1 d=1 d=1 c=1 Λbc Λca = δab , por lo que Λbc y Λca son una la inversa de otra como matrices. c=1 Ahora escribimos un tensor Tsr en términos de estas bases, esto es T n X = = 1 ···ar ′ Tb′a1 ···b ea1 ⊗ · · · ⊗ e′ar ⊗ e′b1 ⊗ · · · ⊗ e′bs s a1 ···bs =1 n X 1 ···ar Tb′a1 ···b s a1 ···bs =1 n X ⊗ = d1 =1 n X n X Λca11 ec1 ⊗ · · · ⊗ c1 =1 Λbd11 ed1 ⊗ · · · ⊗ n X Λcarr ecr cr =1 Λbdss eds ds =1 n X n n X Xn X 1 ···ar ec1 ··· ··· Λca11 · · · Λcarr Λbd11 · · · Λbdss Tb′a1 ···b s a1 ···bs =1 c1 =1 cr =1d1 =1 = n X ds =1 ⊗ · · · ⊗ ecr ⊗ e ⊗ · · · ⊗ ed s n X ···cr Tdc11···d ec1 ⊗ · · · ⊗ ecr ⊗ ed r ⊗ · · · ⊗ ed s s dr c1 ···ds =1 donde hemos llamado (16.1) ···cr Tdc11···d s = n X a1 =1 ··· n X n X ar =1b1 =1 ··· n X 1 ···ar . Λca11 · · · Λcarr Λbd11 · · · Λbdss Tb′a1 ···b s bs =1 Comentario 16.5. Note que en cada caso se tiene que y 1 ···ar Tb′a1 ···b = T e′a1 , · · · , e′ar , e′b1 , · · · , e′bs s ···cr Tdc11···d = T (ec1 , · · · ecr , ed1 , · · · , eds ) . s Es decir, debido al cambio de base las componentes del tensor cambiaron, pero el tensor mismo se quedo inalterado. Es en este sentido que los tensores son invariantes ante cambios de base y por tanto de coordenadas. En ciencias fı́sicas este hecho se usa continuamente. Una operación también muy usada en ciencias fı́sicas es la contracción de tensores. A partir de uno o varios tensores, se construye otro usando la contracción. Vamos a definirla. Definición 16.6. Sea T ∈ Tsr en un espacio vectorial V . La contracción C11 (T ) de un tensor en las bases duales {ea }{ea } es un tensor (r − 1, s − 1) tal que las n n n P P P aa2 ...ar aa2 ...ar 1 Tab componentes de C11 (T ) son Tab , i.e. C (T ) = 1 2 ···bs 2 ···bs a=1 eas ⊗ · · · ⊗ ear ⊗ eb2 ⊗ · · · ⊗ ebs a=1 a2 ···ar b2 ···bs =1 Proposición 16.7. La contracción es independiente de las bases. 276 16. TENSORES Y P-FORMAS Demostración 16.8. Sean {ea }{ea } y {e′a }{e′a } bases duales de V . Entonces C1′1 (T ) = = n X n X ′aa2 ...ar ′ Tab eas ⊗ · · · ⊗ e′ar ⊗ e′b2 ⊗ · · · ⊗ e′bs 2 ···bs a=1a2 ···ar b2 ···bs =1 n n X n X X a1 =1 ··· ar =1b1 =1 ··· d2 n X Λca22 · · · Λcarr Λbd22 · · · Λbdss bs =1 ds n X ′a...ar Ta···b ecs s a=1 ⊗ · · · ⊗ ecr ⊗ e ⊗ · · · ⊗ e n X n n X X ...cr = δdc11 Tdc11dc22 ···d ecs ⊗ · · · ⊗ ecr ⊗ ed 2 ⊗ · · · ⊗ ed s s c1 =1d1 =1 = C1′1 (T ) c2 ···cr d2 ···ss =1 De la misma forma se pueden definir las contracciones de los demás ı́ndices. Suele llamarse a los ı́ndices superiores de un tensor ı́ndices covariantes y a los inferiores, ı́ndices contravariantes. Ası́ la contracción queda definida entre ı́ndices covariantes con indices contravariantes. Notación 16.9. Del mismo modo, se suele llamar a los vectores ea vectores covariantes o uno-formas y a los ea vectores contravariantes o simplemente vectores. En lo que sigue vamos a estudiar algunos ejemplos simples de tensores usados en fı́sica. Ejemplo 16.10. El tensor de campo electromagnético es un tensor definido como 3 X A= Aµ dxµ + dΛ µ=0 donde Λ es una función arbitraria que va de los reales a los reales. Ejemplo 16.11. El tensor de energia momento es un tensor definido como T = 3 X µ,ν=0 Tµν dxµ ⊗ dxν en donde las componentes Tµν son basicamente las presiones y la densidad en la diagonal, y los flujos de energia y momento en las componentes fuera de la diagonal. Ejemplo 16.12. El tensor métrico es un tensor definido como g= 3 X µ,ν=0 gµν dxµ ⊗ dxν el cual define una métrica en la variedad, a traves del producto escalar entre vectores. Mas adelante daremos los detalles de esta tensor, por el momento vamos a discutir dos ejemplos simples. Primero tomemos las componentes gij = δij i, j = 1, 2, 3, y con las componentes con subindice 0 igual a cero. Lo que se obtiene es una métrica Euclidiana, esta es: g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz 1. TENSORES ∂ − Tomemos el vector X = 2 ∂x entre X y Y esta dado por: g(X, Y ) = = ∂ ∂y 277 ∂ ∂ y el vector Y = − ∂x + 2 ∂z . El producto interno dx(X) ⊗ dx(Y ) + dy(X) ⊗ dy(Y ) + dz(X) ⊗ dz(Y ) 2 · (−1) + (−1) · 0 + 0 · 2 = −2 Mientras que la norma de los vectores es g(X, X) = dx(X) ⊗ dx(X) + dy(X) ⊗ dy(X) + dz(X) ⊗ dz(X) = 5 = ||X||2 g(Y, Y ) = dx(Y ) ⊗ dx(Y ) + dy(Y ) ⊗ dy(Y ) + dz(Y ) ⊗ dz(Y ) = 5 = ||Y ||2 La norma de los vectores siempre va a ser positiva. La distancia entre estos vectores ∂ ∂ ∂ − ∂y + 2 ∂z ) será (X − Y = ∂x g(X − Y, X − Y ) = = dx(X − Y ) ⊗ dx(X − Y ) + dy(X − Y ) ⊗ dy(X − Y ) + dz(X − Y ) ⊗ dz(X − Y ) = ||X − Y ||2 = 1 + 1 + 4 = 6 Un ejemplo más interesante es la métrica de Minkowski, esta esta definida por g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz − dt ⊗ dt Tomemos ahora los vectores X = X y Y ahora esta dado por: ∂ ∂x ∂ − ∂t yY = ∂ ∂x ∂ + ∂t . El producto interno entre g(X, Y ) = dx(X) ⊗ dx(Y ) + dy(X) ⊗ dy(Y ) + dz(X) ⊗ dz(Y ) − dt(X) ⊗ dt(Y ) = 1+1=2 Pero ahora las normas de los vectores es g(X, X) = dx(X) ⊗ dx(X) + dy(X) ⊗ dy(X) + dz(X) ⊗ dz(X) − dt(X) ⊗ dt(X) = 0 g(Y, Y ) = dx(Y ) ⊗ dx(Y ) + dy(Y ) ⊗ dy(Y ) + dz(Y ) ⊗ dz(Y ) − dt(Y ) ⊗ dt(Y ) = 0 O sea, estos vectores tienen norma nula, sus tamaños son nulos, a pesar de que los vectores no lo son. Esta es la principal caracteristica de la métrica de Minkowsky, en este espacio existe vectores no nulos con norma nula o negativa. Esta métrica podria ser vista como algo exótico, como una invención de algún matemático con demasiada imaginación. Pero no lo es, es el mejor modelo del espacio tiempo que tenemos, es algo muy real. Vamos a tomar las componentes del ejemplo de la pelota 15.63. Tomemos a la métrica para una pelota como g = dw1 ⊗ dw1 + dw2 ⊗ dw2 = r2 dθ ⊗ dθ + sin2 (θ)dϕ ⊗ dϕ Se suele denotar (abusando de la notación) a una métrica también como g = dΩ2 = r2 dθ2 + sin2 (θ)dϕ2 el cual puede ser confuso, pues los elementos dθ2 y dϕ2 no son el cuadrado de una diferencial, sino el producto tensorial de dos formas. Hay que tomar esto siempre en cuenta. 278 16. TENSORES Y P-FORMAS 2. p-Formas En esta sección hablaremos de las p-formas. Las formas son productos tensoriales de uno-formas antisimetrizados. Su importancia también viene de la fı́sica y de las ciencias naturales. Con las p-formas es posible hacer oparaciones con mucha mas sincillez y en muchos casos, las cantidades que se estudian adquieren un significado más claro y presiso. En esta sección estudiaremos algunos ejemplos en la fı́sica, con aplicaciones directas a la ingenierı́a. Vamos primero a definir las p-formas. Definición 16.13. Sea V ∗ el conjunto de uno-formas. Al conjunto de tensores (0, p) antisimétricos en cada entrada se llama p-formas. Vamos a ser más explı́citos, sean w1 , w2 , w3 ∈ V ∗ , entonces las p-formas se construyen como en los ejemplos siguientes. Ejemplo 16.14. Una dos-forma se escribe como w = 21 w1 ⊗ w2 − w2 ⊗ w1 Ejemplo 16.15. Una tres-forma w = 61 (w1 ⊗ w2 ⊗ w3 +w3 ⊗ w1 ⊗ w2 +w2 ⊗ w3 ⊗ w1 −w3 ⊗ w2 ⊗ w1 −w1 ⊗ w3 ⊗ w2 − w2 ⊗ w1 ⊗ w3 ), etc. En lo que sigue vamos a construir el álgebra de las p-formas. Primero vamos a construir un producto entre p-formas, llamado el producto wedge. Su definición es como sigue. Definición 16.16. Sean w y µ una p y q-formas respectivamente. El producto w ∧ µ es una (p + q)-forma, donde ∧ es antisimétrico i.e. pq w ∧ µ = (−1) µ∧w Esto quiere decir, que si {ea } es base de las uno-formas, entonces una 2-forma se escribe como w= n X wa1 a2 ea1 ∧ ea2 donde ea1 ∧ ea2 = a1 a2 =1 1 a1 (e ⊗ ea2 − ea2 ⊗ ea1 ) 2 Analogamente, una tres forma se escribe como w= n X wa1 a2 a3 ea1 ∧ea2 ∧ea3 donde ea1 ∧ea2 ∧ea3 = a1 a2 a3 =1 1X [P ] (−1) ea1 ⊗ea2 ⊗ea3 6 [P ] donde [P ] significa permutación de (a1 , a2, a3 ). De esta forma, se pueden construir n p-formas en un espacio V ∗ n-dimensional. Al conjunto de las p-formas se p denota como ∧p . Proposición 16.17. Toda (n+k)-forma en un espacio n-dimensional es idénticamente cero, para k > 1. Demostración 16.18. Sean V ∗ un espacio n-dimensional y α ∈ V ∗ una n + 1 forma. Entonces α = αai ···aj ak ···an+1 eai ∧ · · · ∧ eaj ∧ eak ∧ · · · ∧ ean+1 pero algún kj se repite. Ası́ que intercambiándolos α = −αai ···aj ak ···an+1 eai ∧ · · · ∧ eak ∧ eaj ∧ · · · ∧ ean+1 = −α por lo tanto α = 0. 3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 279 Ası́ como construimos el campo de las uno-formas y de los vectores, se puede construir el campo de los tensores, simplemente definiendo los tensores en cada punto de la variedad. Formalmente se tiene: Definición 16.19. Un tensor T del tipo (r, s) sobre una variedad M n , es un tensor construido sobre el espacio tangente T M n y el espacio cotangente T ∗ M n de M n. 3. Diferenciación e integración en variedades Para evitar un poco la notación de los indices con sumandos y factores extensos, a partir de esta sección usaremos la convención de suma sobre ı́ndices repetidos de Einstein, es decir, si dos indices se repiten en un tensor, es que estos indices se estan sumando, a menos que se especifique lo contrario. En esta sección vamos a definir la diferencial y la integral de p-formas y tensores sobre la variedad. Vamos a definir tres tipos de operadores diferenciales y la integración de estos, en especial veremos el teorema de Stokes. Para iniciar vamos a introducir la notación sobre las diferenciales, ası́ todo sera más compacto. Notación 16.20. En esta sección denotaremos la derivada por una coma, es decir ∂f = f,k ∂xk ∂2f = f,kl ∂xk ∂xl etc. Primero vamos a definir la diferencial de p-formas, la cual es la mas usada y la más simple de los operadores diferenciales que veremos. Definición 16.21. Sea M n variedad y w una p-forma sobre M n . La diferencial exterior d es un mapeo d : ∧p → ∧p+1 tal que a w i para dx = = i=1,··· ,n wi1 ···ip dxi1 ∧ · · · ∧ dxip → dw d wi1 ···ip ∧ dxi1 ∧ · · · ∧ dxip base coordenada de T ∗ M n = ∧1 . Se tiene que dw = wi1 ···ip ,k dxk ∧ dxij ∧ · · · ∧ dxip . La primera propiedad importante de este operador es que la diferencial de la diferencial de una p-forma, es cero. Como veremos esta propiedad es muy importante. Proposición 16.22. d (dw) = 0 para toda p-forma w ∈ ∧p , y para toda p ∈ Z + . Demostración 16.23. Tenemos dw = wi1 ···ip ,k dxk ∧ dxi1 ∧ · · · ∧ dxip , entonces d (dw) = wi1 ···ip ,kℓ dxℓ ∧ dxk ∧ dxi1 ∧ · · · ∧ dxip donde se están sumando ı́ndices simétricos k, ℓ, con ı́ndices antisimétricos dxℓ ∧dxk , por tanto d (dw) = 0. Para calcular la diferencial de p-formas se aplica la siguiente fórmula. 280 16. TENSORES Y P-FORMAS Proposición 16.24. Sean w y µ una p y q-formas respectivamente. Se sigue p que d (w ∧ µ) = dw ∧ µ + (−1) w ∧ dµ. Demostración 16.25. Sean w = wi1 ···ip dxi1 ∧ · · · ∧ dxip y µ = µji ···jq dxj1 ∧ · · · ∧ dxjq Entonces d wi1 ···ip dxi1 ∧ · · · ∧ dxip ∧ µj1 ···jq dxj1 ∧ · · · ∧ dxjq = = wi1 ···ip ,k dxk ∧ dxi1 ∧ · · · ∧ dxip ∧ µj1 ···jq dxj1 ∧ · · · ∧ dxjq + +wi1 ···ip µj1 ···jq ,ℓ dxℓ ∧ dxi1 · · · ∧ dxip ∧ dxj1 ∧ · · · ∧ dxjq p dw ∧ µ + (−1) w ∧ dµ Ejercicio 16.26. Muestre que dw (X, Y ) = X (w (Y )) − Y (w (X))− w ([X, Y ]) En el capı́tulo anterior introdujimos el concepto de full-back. Ahora vamos a introducir un concepto similar, pero no hay que confudirlos, con el que podemos trasladar formas o tensores covarientas de una variedad a otra. Vamos a escribir la definición y luego daremos una breve explicación. Definición 16.27. Sea φ : M m → N n , y M m , N n variedades. Entonces: · El pull-back de tensores covariantes se define como φ∗ T (v1 , · · · , vs ) |p = T (φ∗ v1 , · · · , φ∗ vs ) |φ(p) , v1 , · · · , vs ∈ T M m , p ∈ M m donde y T ∈ Ts0 . · Análogamente para tensores contravariantes se tiene φ∗ T w1 , · · · , wr |φ(p) = T φ∗ w1 , · · · , φ∗ wr |p para T ∈ T0r y w1 , · · · , wr ∈ T ∗ N n Vamos a ver primero el pull-back de una uno-forma. Ejemplo 16.28. Sea w ∈ T ∗ N n y v ∈ T M m . Y sea ϕ : M m → N n . Entonces el pull-back de w esta dado por ϕ∗ w : T M m v → ℜ tal que → w(ϕ∗ v) = w(dϕ(v)). Esto quiere decir que ϕ∗ es una función tal que ϕ∗ : T ∗ N n → T ∗ M m , ya que φ∗ w ∈ T ∗ M m y w ∈ T ∗ N n . Recordemos que dϕ = ϕ∗ : T M → T N , vean la figura 1. Con el ejemplo anterior ya se puede proceder a encontrar el pull-back de un tensor covariante en general. Y con este el de un tensor contravariante. Vamos a demostrar ahora que el pull-back y la diferencial conmutan. Proposición 16.29. Sea M m y N n variedades y φ : M m → N n y φ∗ el pullback. La diferencial exterior conmuta con el pull-bak. 3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 281 Figure 1. Representación de la función ϕ, del pull-back ϕ∗ y de la diferencial de la función ϕ , dϕ = ϕ∗ . Demostración 16.30. Sea w ∈ ∧p y f : M n → ℜ suave. Entonces, por la regla de la cadena d (f ◦ φ) = d (φ∗ f ) = df ◦ dφ = df ◦ φ∗ = φ∗ (df ) i.e. d (φ∗ f ) = φ∗ (df ) De la misma manera para 1-formas: d (φ∗ w) = d (w ◦ φ∗ ) = d (w ◦ dφ) = dw ◦ φ∗ = φ∗ (dw) y análogamente para p -formas. El rotacional de un vector es un concepto matemático muy utilizado en ciencias exactas. En si es definido como la diferencial totalmente antisimétrica de un vector. Vamos a introducir el tensor de Levi-Civita, que nos va a servir para trabajar con la antisimetrización de vectores y tensores. Es de hecho la generalización de la antisimetrización que se usa en algabra de vectores. Aqui lo podemos introducir para cualquier variedad de dimensión arbitraria. Definición 16.31. El tensor totalmente antisimétrico de Levi-Civita ǫi1 ,··· ,in se define como 1 si i1 , · · · , in es permutación par de (1, 2, · · · , n) -1 si i1 , · · · , in es permutación impar de (1, 2, · · · , n) ǫi1 ,··· ,in = 0 cualquier otro caso 282 16. TENSORES Y P-FORMAS Con el tensor de Levi-Civita podemos definir el operador de Hodge. Este operador es muy usado para poder simplificar la notación. Vamos a escribir su definición y luego estudiaremos algunos ejemplos de su uso. Definición 16.32. El operador * de Hodge o transformación de dualidad es una función que mapea ∗ : ∧p → ∧n−p tal que 1 ǫi ···i i ···i dxip+1 ∧ · · · ∧ dxin ∗ dxij ∧ · · · ∧ dxip = (n − p)! 1 p p+1 n donde ǫi1 ,··· ,in es el tensor de Levi-Civita Esta definición es posible gracias a la dualidad que existe entre los espacios vectoriales de uno-formas ∧p y ∧n−p , ambas son de la misma dimensión. Es por eso que la aplicación del operador de Hodge dos veces a una p-forma, es proporcional a la p-forma, es decir, se regresa al lugar de origen. p(n−p) Proposición 16.33. ∗ ∗ wp = (−1) wp donde wp ∈ ∧p Demostración 16.34. Por substitución directa. Veamos algunos ejemplos simples. Ejemplo 16.35. Sea w = f dx ∧ dy + g dy ∧ dz donde g, f : ℜ3 → ℜ en ℜ3 . Entoncees, n = 3 y w ∈ ∧2 dw ∗w ∗dw = f,z dz ∧ dx ∧ dy + g,x dx ∧ dy ∧ dz = (f,z + g,x ) dx ∧ dy ∧ dz = f ∗ dx ∧ dy + g ∗ dy ∧ dz 1 1 = f ǫ123 dz + g ǫ231 dx 1! 1! = f dz + gdx = f,z + g,x Es decir, la aplicación del operador de Hodge a una p-forma, consiste en quitar todos los elementos de la base que tiene la p-forma y poner todos los restantes, los que no se usan, en el orden que nos da el tensor de Levi-Civita. Las funciones que van enfrente de la base no son afectadas por el operador de Hodge. Con este operador se define otro operador diferencial muy importante, llamado la codiferencial. Definición 16.36. La codiferencial exterior ó derivada exterior adnp+n+1 junta se define por δ = (−1) ∗ d∗ para espacios n-dimensionales y para p p-formas. Se tiene que δ = − ∗ d∗ en espacios de dimensión par y δ = (−1) ∗ d∗ en espacios de dimensión impar. Como en el caso de la diferencial, la doble aplicación de la codiferencial también es cero. Proposición 16.37. δ (δwp ) = 0 np+n+1 Demostración 16.38. δ (−1) 2(np+n+1) p(n−p) (−1) ∗ (−1) dd ∗ wp Comentario 16.39. Se tiene entonces que d : ∧p → ∧p+1 δ 2(np+n+1) ∗ d ∗ wp = (−1) : ∧p → ∧p−1 ∗ d ∗ ∗d∗ = 3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 283 Utilizando la definición de la diferencial y la codiferencial se puede definir otro operador diferencial que llamaremos Laplaciano. En ciertos casos este operador es el Laplaciano que se conoce en álgebra vectorial, pero de hecho es una generalización de este para cualquier variedad de cualquier dimensión. Definición 16.40. El Laplaciano ∆ sobre una variedad, es una función ∆ : ∧p → ∧p definida por ∆ = dδ + δd Vamos a mostrar algunos ejemplos con todos los operadores diferenciales que hemos definido, por facilidad lo haremos en ℜ2 , que es donde el cálculo nos es más familiar, con ellos estas definiciones adquiriran más sentido. Ejemplo 16.41. Sea M = ℜ2 . Entonces una base para ∧0 ⊃ {1}. Analogamente para ∧1 ⊃ {dx, dy} , y para ∧2 ⊃ {dx ∧ dy}. También podemos obtener la aplicación ∗, esta nos da: ∗1 = dx ∧ dy; ∗dx = dy; ∗dy = −dx; ∗dx ∧ dy = 1. Para las diferenciales obtenemos: df (x, y) = ddf = d (udx + vdy) = f,x dx + f,y dy f,xy dy ∧ dx + f,yx dx ∧ dy = 0 (v,x −u,y ) dx ∧ dy Analogamente, para las codiferenciales se obtiene: δf (x, y) = δ (udx + vdy) = = = δ (φdx ∧ dy) = = − ∗ d ∗ f (x, y) = − ∗ d (f (x, y) dx ∧ dy) = 0 − ∗ d ∗ (udx + vdy) = − ∗ d (udy − vdx) − ∗ (u,x dx ∧ dy − v,y dy ∧ dx) = − ∗ ((u,x +v,y ) dx ∧ dy) = − (u,x +v,y ) − ∗ d ∗ (φdx ∧ dy) = − ∗ d (φ) = − ∗ (φ,x dx + φ,y dy) = − (φ,x dy − φ,y dx) = −φ,x dy + φ,y dx Y para los Laplacianos obtenemos: ∆f = ∆(udx + vdy) = = = = (dδ + δd) f = d (0) + δ (f,x dx + f,y dy) = − (f,xx +f,yy ) d [− (u,x +v,y )] + δ [(v,x −u,y ) dx ∧ dy] − [u,xx dx + v,xy dx + u,yx dy + v,yy dy] − ∗ [(v,xx −u,yx )dx + (v,xy −u,yy )dy] − [(u,xx +v,xy )dx + (v,yy +u,xy )dy] − [(v,xx −u,yx )dy − (v,xy −u,yy )dx] − [(u,xx +u,yy )dx + (v,xx +v,yy )dy] Estos últimos ejemplos justifican el nombre del operador ∆ como Laplaciano. Para el caso de M = ℜ3 las bases respectivamente estan dadas como ∧0 ⊃ {1}, 1 ∧ ⊃ {dx, dy, dz} , para ∧2 ⊃ {dx ∧ dy, dx ∧ dz, dy ∧ dz} y para ∧3 ⊃ {dx ∧ dy ∧ dz}. Igualmente podemos obtener la aplicación ∗ , esta nos da: ∗1 = ∗dx ∧ dy = dx ∧ dy ∧ dz; dz; ∗dx = dy ∧ dz; ∗dy ∧ dz = dx; ∗dy = −dx ∧ dz; ∗dz ∧ dx = dy; ∗dz = dx ∧ dy; ∗dx ∧ dy ∧ dz = 1. Ejercicio 16.42. Muestren que ∗d (v1 dx + v2 dy + v3 dz) = −∇ × v · dx, donde v = (v1 , v2 , v3 ) y dx = (dx, dy, dz) es el radio vector. 284 16. TENSORES Y P-FORMAS Ejercicio 16.43. Muestren que δ (v1 dx + v2 dy + v3 dz) = −∇ · v, donde v = (v1 , v2 , v3 ) Ejercicio 16.44. Muestren que ∆ (v1 dx + v2 dy + v3 dz) = − ∂ 2v · dx = −∇2 v · dx ∂xk ∂xk donde v = (v1 , v2 , v3 ). El espacio tiempo se modela generalmente como una variedad 4-dimensional. Los ejemplos en fı́sica son hechos en esta dimensión, aunque hay teorı́as modernas de unificación que utilizan dimensiones más altas. Por eso para trabajar en el espacio tiempo debemos trabajar en el espacio M = ℜ4 , donde las bases respectivamente estan dadas por para ∧0 ⊃ {1} para ∧1 ⊃ {dx, dy, dz, dt} , para ∧2 ⊃ {dx ∧ dy, dx ∧ dz, dy ∧ dz, dx ∧ dt, dy ∧ dt, dz ∧ dt} para ∧3 ⊃ {dx ∧ dy ∧ dz, dx ∧ dy ∧ dt, dx ∧ dz ∧ dt, dy ∧ dz ∧ dt} para ∧4 ⊃ {dx ∧ dy ∧ dz ∧ dt} Igualmente podemos obtener la aplicación ∗ , esta nos da: ∗1 = dx ∧ dy ∧ dz ∧ dt ∗dx = dy ∧ dz ∧ dt ∗dx ∧ dy = dz ∧ dt ∗dx ∧ dt = dy ∧ dz ∗dy ∧ dz ∧ dt = dx ∗ dy = −dx ∧ dz ∧ dt ∗ dz = −dx ∧ dy ∧ dt ∗ dy ∧ dz = dx ∧ dt dz ∧ dx = dy ∧ dt ∗ dy ∧ dt = dx ∧ dz ∗ dz ∧ dt = dx ∧ dy ∗ dx ∧ dz ∧ dt = −dy ∗ dx ∧ dy ∧ dt = dz ∗dx ∧ dy ∧ dz ∧ dt = 1 ∗ dt = dx ∧ dy ∧ dz ∗ dx ∧ dy ∧ dz = dt Ejemplo 16.45. Sea F = Fi dxi ∧ dt − 12 ǫijk H i dxj ∧ dxk = Fx dx ∧ dt + Fy dy ∧ dt + Fz dz ∧ dt − Hx dy ∧ dz + Hy dx ∧ dz − Hz dx ∧ dy, donde ǫijk es el tensor de Levi-Civita y H i = Hi para i = 1, 2, 3. Podemos calcular su diferencial dF = [(Fz,y − Fy,z ) dy ∧ dz + (Fz,x − Fx,z ) dx ∧ dz + (Fy,x − Fx,y ) dx ∧ dy] ∧ dt − (Hx,x + Hy,y + Hz,z ) dx ∧ dy ∧ dz − [Hx,t dy ∧ dz − Hy,t dx ∧ dz + Hz,t dx ∧ dy] ∧ dt Usando las expresiones anteriores, podemos calcular ∗dF ∗dF = − − [(Fz,y − Fy,z ) dx − (Fz,x − Fx,z ) dy + (Fy,x − Fx,y ) dz] (Hx,x + Hy,y + Hz,z ) dt [Hx,t dx + Hy,t dy + Hz,t dz] Si ahora definimos los vectores F = (Fx , Fy , Fz ) y H = (Hx , Hy , Hz ) obtenemos ∗dF en representación vectorial como ∂ ∗dF = −∇ × F · dx − ∇ · Hdt − H · dx ∂t la cual es una expresión vectorial muy interesante que usaremos mas adelante. 3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 285 En función de la acción de los operadores sobre las p-formas, podemos clasificar las p-formas de la siguiente forma. Definición 16.46. Una p-forma wp ∈ ∧p se dice: · Armónica si ∆wp = 0 · Cerrada si dwp = 0 · Cocerrada si δwp = 0 · Exacta si wp = dαp−1 αp−1 ∈ ∧p−1 · Coexacta si wp = δαp+1 αp+1 ∈ ∧p+1 La integración de p-formas tiene dos teoremas que hacen de las p-formas objetos fácil de manipular. Vamos a presentar dos teoremas sin demostración, el teorema de Hodge, que dice que cualquier p-forma es la superposición de una p-forma exácta, una más coexáta o otra amónica. Ası́ es posible escribir las p-formas en términos de estas p-formas con caracteristicas muy especiales. Este teorema es de gran ayuda como veremos. Y el segundo teorema es el teorema de Stokes, que como veremos en los ejemplos, es la generalización de una gran cantidad de teoremas matemáticos sobre integración puestos todos en el mismo contexto. Empecemos por el teorema de Hodge, el cual estudiaremos sin demostrarlo. Teorema 16.47 (Hodge). Sea M n variedad compacta y sin frontera y ∧p el conjunto de p-formas sobre M n . Entonces wp = dαp−1 + δβp+1 + γp p para toda wp ∈ ∧ , con αp−1 ∈ ∧p−1 , βp+1 ∈ ∧p+1 y γp ∈ ∧p armónica. Y el teorema de Stokes, que tampoco demostraremos aquı́. Teorema 16.48 (Stokes). Sea M n variedad con frontera no vacı́a. Sea wp−1 ∈ una p − 1-forma sobre M n . Entonces Z Z dwp−1 = wp−1 p−1 ∧ M ∂M Para ver este teorema, es mejor ver la manera de trabajar con él. Para familiarizarnos con el teorema de Stokes vamos a estudiar algunos ejemplos en varios espacios. Ejemplo 16.49. En ℜ, n = 1, solo hay dos espacio de formas, las 0- y las 1-formas, es decir ∧0 y ∧1 . Sea f ∈ ∧0 y df ∈ ∧1 . Entonces se tiene Z Z df = f . M ∂M Sea M = (a, b), entonces el teorema de Stokes es simplemente Z b df = f |ba = f (b) − f (a) a que es el teorema fundamental del cálculo. Ejemplo 16.50. En ℜ2 hay tres espacios de formas, las 0-, 1-, y 2-formas, es decir, ∧0 , ∧1 y ∧2 . Sea w = w1 dx + w2 dy una 1-forma en ℜ2 . Entonces dw = 286 16. TENSORES Y P-FORMAS w1,y dy ∧ dx + w2,x dx ∧ dy. La aplicación del teorema de Stokes en este espacio nos da Z Z dw = w. M ∂M Sea M una superficie, su frontera es una curva Z I (w2,x − w1,y ) dx ∧ dy = (w1 dx + w2 dy) , M ℓ Que es el teorema de Stokes en el plano, vean la figura 2 Figure 2. Región de integración. M es una superficie y l es su contorno. Ejemplo 16.51. En ℜ3 podemos definir 0-, 1-, 2- y 3-formas. Sea w una 1forma en ℜ3 , su diferencial esta dada por dw = d (w1 dx + w2 dy + w3 dz). Vamos a escribir esta diferencial explicitamente, veamos dw = w1,y dy ∧ dx + w1,z dz ∧ dx +w2,x dx ∧ dy + w2,z dz ∧ dy +w3,x dx ∧ dy + w3,y dy ∧ dz = (w2,x − w1,y ) dx ∧ dy + (w3,x − w1,z ) dx ∧ dz + (w3,y − w2,z ) dy ∧ dz 1 (wi,j − wj,i ) dxi ∧ dxj = 2 1 ǫijk Bk dxi ∧ dxj = 2 Si denotamos w = (w1 , w2 , w3 ), obtenemos R que B R=rot w, siendo B = (B1 , B2 , B3 ) . w implica que La aplicación del teorema de Stokes dw = Z M rot w · dS = Z M M B · dS = Z ∂M ∂M w · dx = I w · dx 3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 287 donde hemos usado el vector dS = (dy ∧ dz, −dx ∧ dz, dx ∧ dy). Esta es la fórmula del flujo magnético sobre una superficie o ley de Gauss. Vamos a estudiar algunos ejemplos utilizando parte del material desarrollado hasta ahora. Ejemplo 16.52. Vamos a iniciar de nuevo con el tensor electromagnético del ejemplo 16.10. Sea de nuevo el tensor A = Aµ dxµ + dΛ. Tomemos su diferencial F = dA = Aµ,ν dxν ∧ dxµ , ya que ddΛ = 0. Debido a la antisimetria del operador ∧, el nuevo tensor F es antisimétrico, es el tensor de Faraday. En componentes este tensor se escribe como F = Fµν dxν ∧ dxµ , donde las componentes Fµν estan dadas por 0 Ax,t − At,x Ay,t − At,y Az,t − At,z 1 − (Ax,t − At,x ) 0 Ay,x − Ax,y Az,x − Ax,z Fµν = Az,y − Ay,z 2 − (Ay,t − At,y ) − (Ay,x − Ax,y ) 0 − (Az,t − At,z ) − (Az,x − Ax,z ) − (Az,y − Ay,z ) 0 Por lo general también se escriben las componentes del tensor de Faraday en términos de las componentes del campo eléctrico y magnético como 0 −Ex −Ey −Ez 1 Ex 0 Bz −By Fµν = Bx 2 Ey −Bz 0 Ez By −Bx 0 Ası́ que F = −Ei dxi ∧ dt + ǫijk B i dxj ∧ dxk = − (Ex dx ∧ dt + Ey dy ∧ dt + Ez dz ∧ dt) + Bx dy ∧ dz − By dx ∧ dz + Bz dx ∧ dy. Comparando las componentes de las matrices, se puede ver que ∂A −E = + ∇Φ ∂t B = ∇×A donde claramente se ha definido el vector A = (Ax , Ay , Az ), y dos vectores mas, el vector eléctrico E = (Ex , Ey , Ez ) y el vector magnético B = (Bx , By , Bz ), de tal forma que las componentes del tensor electromagnético son Aµ = (−Φ, A). Como se sigue que dF = ddA = 0, esto implica que ∗dF = 0. Usando el resultado del ejercicio 16.45 se tiene que ∂ ∗dF = ∇ × E · dx + ∇ · Bdt + B · dx = 0 ∂t Esta identidad implica que ∂ ∇×E+ B = 0 ∂t ∇·B = 0 las cuales son la ecuación de Faraday y la ecuación de Gauss para el campo magnético, respectivamente. Análogamente, se puede obtener una expresión para δF . Para esto, vamos a obtener primero ∗F ∗F = Bx dx ∧ dt + By dy ∧ dt + Bz dz ∧ dt − (Ex dy ∧ dz − Ey dx ∧ dz + Ez dx ∧ dy) 288 16. TENSORES Y P-FORMAS Si ahora usamos el resultado del ejercicio 16.45 obtenemos que ∂ ∗d ∗ F = −∇ × B · dx + ∇ · Edt + E · dx ∂t de donde claramente se ven la ley de Ampere y la ley de Gauss para el campo eléctrico, es decir ∂ ∇ × B − E = 4πj ∂t ∇ · E = 4πρ de donde concluimos que las ecuaciones de Maxwell en términos de formas son dF δF (16.2) = 0 = −4πJ donde J = ρdt + j · dx Ejercicio 16.53. Muestre que la norma de Lorentz se puede representar como δA = 0 Ejemplo 16.54 (Monopolo de Dirac). Ahora vamos a ver un ejemplo ya no en un espacio plano, sino en una variedad no trivial, por ejemplo sobre la pelota. Dada la generalidad de las formas, podemo incluso resolver las ecuaciones de Maxwell 16.2 sobre la pelota. Sea M = S 2 , y ya sabemos que unas bases de T ∗ S 2 estan dadas por dx xdz dx1± = + 1 ∓ z (1 ∓ z)2 dx2± = dy ydz + 1 ∓ z (1 ∓ z)2 Cualquier 1-forma en T ∗ S 2 se escribe entonces como A± = A1± dx1± + A2± dx2± y su diferencial se obtiene como dA± = (A2± ,2 −A1± ,1 ) dx1± ∧ dx2± . Una expresión equivalente para este resultado es que F = ddA = 0. Análogamente, la aplicación del operador de Hodge a la 1-forma A± nos da ∗A± = A1± dx2± − A2± dx1± . De aqui podemos obtener la diferencial de esta última forma, obtenemos d ∗ A± = (A1± ,1 +A2± ,2 ) dx1± ∧ dx2± . Para obtener la segunda ecuación de Maxwell, vamos a obtener la aplicación del operador δ se obtiene entonces dA± δA± = (A1± ,2 −A2± ,1 ) dx1± ∧ dx2± = A1± ,1 +A2± ,2 . Si ahora usamos la Norma de Lorentz δA = 0, podemos reducir las ecuaciones electromagnéticas sobre la esféra sustancialmente. Vamos a escribir la segunda ecuación de Maxwell. Se tiene que δF = − ∗ d ∗ F = − ∗ d (A1± ,2 −A2± ,1 ) = − ∗ A1± ,21 dx1± + A1± ,22 dx2± − A2± ,11 dx1± − A2± ,12 dx2± = − ∗ − (A2± ,22 +A2± ,11 ) dx1± + (A1± ,22 +A1± ,11 ) dx2± = (A1± ,11 +A1± ,22 ) dx1± + (A2± ,11 +A2± ,22 ) dx2± donde ya hemos usado la norma de Lorentz para simplificar las ecuaciones. Una solución de las ecuaciones de Maxwell en el vacio δF = 0 sobre la esfera es: A1± = A0 x2± , A2± = −A0 x1± 3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 289 donde A0 es una constante. Observe que x1± = r1 ◦ σ± (p) = x/(1 ∓ z) and x2± = r2 ◦ σ± (p) = y/(1 ∓ z). La solución entoces es A0 A0 A± = A0 x2± dx1± − x1± dx2± = 2 (ydx − xdy) ∓ 3 (xy − yx) dz (1 ∓ z) (1 ∓ z) Si ahora cambiamos las coordenadas a coordenadas esféricas 15.1, las cuales son más convenientes para analizar este caso, se obtiene: A± A+ A− A0 (∓1 − cos(θ)) (ydx − xdy) = A0 dϕ 2 (1 ∓ z) (±1 − cos(θ)) 1 − cos(θ) = −A0 dϕ 1 + cos(θ) 1 + cos(θ) dϕ = −A0 1 − cos(θ) = la cual es una solución a las ecuaciones de Maxwell en el vacio sobre la pelota. Ejemplo 16.55. Vamos a tomar alguna solución con fuentes. Supongamos que tenemos un tensor de corrientes dado por J= x1 12 (x 22 +x + 1)3 dx1 + x2 12 (x + x2 2 + 1)3 dx2 (vamos a quitar en este ejemplo los subindices ± por comodidad). Igualando la ecualción δF = −4πJ se llega a un sistema de ecuaciones A1 ,11 +A1 ,22 = A2 ,11 +A2 ,22 = −4πx1 (x1 2 + x2 2 + 1)3 −4πx2 (x1 2 + x2 2 + 1)3 Este sistema tiene una solución dada por A1 = A2 = πx1 12 2(x + x2 2 + 1) πx2 2(x1 2 + x2 2 + 1) En términos de las coordenadas de ℜ3 , la solución (regresando a la notación con ±) es A0 A± = (ydx − xdy) = A0 (∓1 − cos(θ)) dϕ (1 ∓ z) A+ = A0 (−1 − cos(θ)) dϕ A− = A0 (1 − cos(θ)) dϕ Es decir A+ = A− − 2A0 dϕ. Por lo tanto A± es solamente un campo de norma. A± se llama el monopolo de Dirac En la siguiente sección vamos a introducir otros dos operadores diferenciales, uno es llamado derivada de Lie y el otro la derivada covariante. Ambos tienen su esfera de interes y se utilizan para diferentes objetivos. La derivada de Lie es muy importante para encontrar simetrias en alguna variedad. Con ella es posible encontrar los vectores de Killing, que son asociados a simetrias del espacio. Con la 290 16. TENSORES Y P-FORMAS derivada covariante se construye el tensor de curvatura, que es un tensor con el que podemos medir ésta en todo punto del espacio. Para poder introducir la derivada de Lie es necesario introducir algunos conceptos previos. Para esto necesitamos primero algunas definiciones. Definición 16.56. Sea M n variedad, U ⊂ M n y (−ǫ, ǫ) ⊂ ℜ. Un grupo uniparamétrico de transformación es una función suave ϕ : (−ǫ, ǫ) × U → M n tal que 1) ϕ (0, x) = x 2) ϕ (t + s, x) = ϕ (t, ϕ (s, x)) para toda t, s ∈ ℜ, x ∈ M n Comentario 16.57. Observe que ϕ (t + s, x) = ϕ (s + t, x) = ϕ (s, ϕ (t, x)) El nombre de grupo es porque con esta función efectivamente se puede formar un grupo, de un solo parámetro, esto se hace en la siguiente proposición. Proposición 16.58. Sea ϕ : ℜ × M n → M n un grupo uniparamétrico de transformaciones y Ψ = {ϕt : M n → M n , x → ϕt (x) = ϕ (t, x)} . Entonces (Ψ,◦ ) es un subgrupo del grupo de difeomorfismos. Demostración 16.59. Se tiene que ϕt ◦ ϕs (x) = ϕt+s (x) = ϕ (t + s, x) = ϕ (t, ϕ (s, x)) = ϕt (ϕs (x)) . Entonces ϕ es cerrado. ϕt+s = ϕs+t implica que Ψ es abeliano, ϕ0 es la identidad y ϕ−t = ϕ−1 t , ya que ϕt ◦ ϕ−t = ϕ0 Como el grupo uniparamétrico de transformaciones es una función de los reales a la variedad, se puede construir una curva. Entonces con la curva se puede construir la tangente a esta curva que a su vez define un vector. Entonce se dice que esta curva es la curva integral del vector tangente a la curva. Vamos a hacer esto formalmente. Definición 16.60. Sea M n variedad. Una curva integral de X ∈T M n es · un camino suave γ : (a, b) → M n tal que γ (s) = Xγ(s) , s ∈ (a, b) vean la figura 3. Figure 3. La curva integral del vector X, es el camino suave representado en la figura. Vamos a aclarar esta definición un poco. Sea c = (U, ψ, v) una carta y X ∈ T U . Entonces la función γ : (a, b) → U es una curva que cumple con la propiedad dγ : Ts ℜ → Tγ(s) M n 3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES 291 tal que explicitamente se cumple la siguiente igualdad d d · ◦ γ∗. = Xγ(s) := γ(s) = dγ dt s dt · donde hemos definido la función γ(s). Esto es, para una función cualquiera de la variedad a los reales f : M n → ℜ se tiene que esta función cumple con las siguientes igualdades d d · (f ) = γ (f ) = dγ (f ◦ γ) = Xγ(s) (f ) . dt s dt s Vamos a tomar una función muy particular, sea f = xi , entonces se tiene lo siguiente: d d · i i = dγ γ x x = xi ◦ γ dt s dt s ∂ d i j x ◦ γ (s) = Xγ(s) xi = dt ∂xj γ(s) = Xγ(s) xi = X xj (γ (s)) . d Ası́ es que se cumple dt xi ◦ γ = X xj ◦ γ. Esto quiere decir que, dado un vector X en la variedad, para encontrar una curva integral, hay que resolver el sistema de ecuaciones diferenciales d i (16.3) x ◦ γ = X xi ◦ γ dt Ejemplo 16.61. Vamos a encontra la curva integral del vector ∂ ∂ X = x2 1 − x1 2 ∂x ∂x Entonces, de la ecuación (16.3), las ecuaciones a resolver son (recuerden que r1 = x1 ◦ γ, r2 = x2 ◦ γ) dr1 = X(x1 ) ◦ γ = r2 dt dr2 = X(x2 ) ◦ γ = −r1 dt Una solución a este sistema es r1 = r sin(t), r2 = r cos(t). Es fácil ver que la curva 2 2 integral es un cı́rculo de radio r, ya que r1 + r2 = r2 Ejemplo 16.62. Veamos ahora la curva integral del vector del ejemplo 15.63 sin(ϕ) ∂ ∂ + X = (cos(θ) − 1) cos(ϕ) ∂θ sin(θ) ∂ϕ Entonces, de la ecuación (16.3), las ecuaciones a resolver son dr1 dt dr2 dt = X(θ) ◦ γ = cos(r1 ) − 1 cos(r2 ) = X(ϕ) ◦ γ = cos(r1 ) − 1 sin(r2 ) sin(r1 ) Si dividimos la primera ecuación entre la segunda y separamos las variables, podemos integrar este sistema de ecuaciones. El resultado es que (csc(r1 ) − cot(r1 )) = 292 16. TENSORES Y P-FORMAS c sin(r2 ). Una parametrización de esta curva esta dada por r1 = λ, r2 = 1/c arcsin(csc(λ)− cot(λ)). La curva es graficada en la figura 4 Figure 4. Curva integral del vector del ejemplo 16.62. Como este vector corresponde a uno de los vectores base de la pelota, esta curva esta sobre la pelota y hay que imaginarsela dando vuelta alrededor de ella y con los extremos que se juntan. Ejercicio 16.63. Encuetre la curva integral de los vectores 1) X = 2) X = ∂ ∂ +m 2 sobre ℜ2 ∂x1 ∂x ∂ sobre S 2 sin(θ) ∂ϕ Otra propiedad importente del grupo unimaramétrico de transformaciones es que induce dos importantes funciones. Con ellas vamos a poder construir la derivada de Lie. Vamos a definir estas funciones. 4. DERIVADA DE LIE Y DERIVADA COVARIANTE 293 Definición 16.64. Sea ϕ : ℜ × M n → M n un grupo uniparamétrico de transformaciones sobre M n variedad. ϕ induce dos funciones ϕt : M n → Mn → ϕt (x) = ϕ (t, x) → Mn x ϕx : ℜ → ϕx (t) = ϕ (t, x) . t Entonces {ϕt } es un subgrupo abeliano del grupo de difeomorfismos y ϕx induce el · vector X = ϕx . Observe que el conjunto {ϕx |ϕx (t) = ϕ (t, x)} cumple que ϕx ◦ ϕy 6= ϕy ◦ ϕx en general, por lo que d d = dϕx ◦ dϕy d (ϕx ◦ ϕy ) dt dt s s = = X ◦ Y 6= Y ◦ X d d (ϕy ◦ ϕx ) . dt s Esto es, la función ϕx induce un producto que en general es un producto no conmutativo entre los vectores de la variedad. 4. Derivada de Lie y Derivada Covariante Debido a la rica estructura que tienen los tensores, es posible definir varios operadores diferenciales. En esta sección vamos a introducir dos operadores diferenciales muy importantes y utilizados en fı́sica, son operadores que generalizan la derivada normal. La derivada de Lie es conveniente para espacios que tinen isometrias o simetrias especiales. Con la derivada de Lie, como veremos, es posible encontrar estas simetrias. La derivada covariante es un operador que convierte a un tensor en otro tensor, por eso su importancia como operador diferencial. A la derivada de Lie la vamos a introducir sin demostraciones, pero para la derivada covariante daremos las demostraciones mas importantes. Ahora estamos listos para definir la derivada de Lie. Definición 16.65. Sea M n variedad y T ∈ Tsr tensor sobre M n . Sea ϕ en · grupo uniparamétrico de transformaciones sobre M n , X = ϕx . La derivada de Lie de T a lo largo de X se define como 1 LX T |p = lim (T |p −ϕt∗ T |p ) t→0 t donde ϕx y ϕt son las funciones inducidas por ϕ. La derivada de Lie tiene varias propiedades, que aquı́ vamos a poner sin demostración, y que podemos resumir en la siguiente proposición. Proposición 16.66. Sea LX derivada de Lie del vector X, entonces se cumple: 1) LX preserva el tipo de tensor, es decir mapea LX : Tsr → Tsr 2) LX es lineal y preserva la contracción 3) Si S y T son tensores arbitarios, se cumple LX (S ⊗ T ) = (LX S) ⊗ T + S ⊗ (LX T ) 4) LX f = X (f ) para f : M n → ℜ 294 16. TENSORES Y P-FORMAS 5) LX Y = −LY X = [X, Y ] para toda X, Y ∈ T M n 6) d (LX w) = LX (dw) Finalmente, como dijimos, vamos a introducir otro operador diferencial, la derivada covariante. Para esto necesitamos introducir una nueva estructura llamada la conexión, y que vamos a denotar por ∇. La idea de la conexón es dar una forma de conectar un vector que es trasladado paralelamente a traves de la variedad. Ası́, si el vector base ea es traslado paralelamente a lo largo de la curva γ, que tiene como vector tangente al vector eb , el vector final trasladado paralelamente sera ∇eb ea , vean la figura 5. Vamos a desarrolar esta idea con cuidado. Formalmente la definición de conexión es: Definición 16.67. Una conexión ∇ para algún p ∈ M n , variedad, es un r mapeo que le asocia a cada tensor del tipo T ∈ Tsr un tensor del tipo Ts+1 ∇ : r r Ts → Ts+1 tal que 1) ∇ es una derivación en el álgebra tensorial, i.e. ∇ (αT + βT ′ ) = α∇T + β∇T ′ y ∇ (S ⊗ T ) = ∇S ⊗ T + S ⊗ ∇T 2) ∇f = df para toda f : M n → ℜ 3) ∇ = ea ∇eb donde {ea }a=1,··· ,n y {eb }b=1,··· ,n son bases duales de T ∗ M n y T M n respectivamente. 4) ∇X es lineal, i.e. ∇αX+βY = α∇X + β∇Y . No hay una manera única de definir la conexión en una variedad. La más común es la conexión que hace que la derivada covariante haga cero al tensor métrico, la cual introduciremos mas adelante. Pero en general, la forma de definir la conexión es usando la siguiente regla. Sea {ea }a=1,...,n una base de T M n no necesariamente coordinada, es decir ∂ ea = eia ∂x i . Entonces ∇eb ea = Γcab ec ∈ T M n donde los coeficientes Γcab son funciones suaves, vean la figura 5, que se obtienen del producto Γcab = hec , ∇eb ea i, donde eb b=1,··· ,n es la base dual a {ea }a=1,··· ,n , es decir eb = ebj dxj y se cumple que b ∂ b j j (16.4) e , ea = ej ea dx , j = δab . ∂x De hecho, definir la conexión es equivalente a dar los valores de las funciones Γcab sobre la variedad. Para una base coordenada, los coeficientes de la conexión son ∂ ∂ ∇ ∂j = Γkij k ∂x ∂xi ∂x nosotros vamos a tomar siempre conexiones simétricas, es decir, para las bases coordenadas se cumple que Γkij = Γkji Ejercicio 16.68. Estudien como se comportan los coeficientes Γcab bajo un cambio de base (de coordenadas). Conociendo la conexión en la variedad, se puede conocer la derivada covariante de un vector. La forma de hacerlos se ve en la siguiente proposición. 4. DERIVADA DE LIE Y DERIVADA COVARIANTE 295 Figure 5. El desplazamiento paralelo de un vector. Este desplazamiento en una variedad define los coeficientes de la derivada covariante entre bases dadas. Proposición 16.69. Las componentes de la derivada covariante del vector Y a lo largo del vector X, se ven como ∇X Y = Y|ba X b ea donde {ea }a=1,··· ,n es una base de T M n y Y|ba = eb (Y a ) + Γacb X c Demostración 16.70. Tomemos X = X b eb Y = Y a ea , entonces ∇eb Y = ∇eb (Y a ea ) = (∇eb Y a ) ea + Y a (∇eb ea ) = eb (Y a ) ea + Γcab ec Y a = (eb (Y a ) + Γacb Y c ) ea = Y|ba ea por la linearidad del operador ∇ea se obtiene el resultado deseado. Notación 16.71. En el caso que la base sea una base coordenada {dxi }, se acostumbra denotar a la derivada covariante no por el simbolo |, sino por ; entonces: ∇ ∂ ∂xj Y = Y i ,j +Γikj Y k ∂ ∂ = Y;ji i i ∂x ∂x ∂ Por supuesto ∇Y = dxj Y;ji ∂x i no depende de las bases. De hecho, la definición de la conexión o del transporte paralelo es equivalente. Si se define una, se puede definir la otra. En este caso hemos definido a la conexión, entonces el trasporte paralelo se define como: Definición 16.72. Sea γ un camino en la variedad M , y sea X = γ̇ el vector tangente a lo largo de γ. Se dice que el vector Y ha sido trasladado paralelamente a traves de X, si ∇X Y = 0 296 16. TENSORES Y P-FORMAS ∂ i ∂ Supongamos por facilidad que X = X j ∂x j , y que Y = Y ∂xi . Si desarrollamos la fórmula de la definición 16.72, se tiene ∂ 0 = ∇X Y = ∇X j ∂ j Y = X j ∇ ∂ j Y = X j Y i ,j +Γikj X j Y k ∂x ∂x ∂xi que puede escribirse de la forma equivalente d Yi◦γ i i j k + Γikj X j Y k ◦ γ = 0 X(Y ) + Γkj X Y ◦ γ = dt donde hemos usado la fórmula de la cuarva integral de la ecuación (16.3) de X en la igualdad. Ejemplo 16.73. Vamos a discutir un ejemplo simple, para iniciar, vamos a ∂ suponer que la conexión es cero. Supongamos que tenemos el vector Y = Y 1 ∂x 1 + 2 ∂ Y ∂x2 el cual queremos desplazar paralelamente a lo largo de una curva. Ahora veamos la ecuación del desplazamiento paralelo, se tiene dY 2 ◦ γ dY 1 ◦ γ = 0, =0 dt dt cuya solución es Y 1 = Y01 , Y 2 = Y02 , donde ya hemos puesto las condiciones iniciales a la solución, es decir, el valor del vector Y |t=t0 en el punto donde se inicia el desplazamiento. Este vector será siempre Y |t=t0 , es decir, si la conexión es cero, un vector se desplaza paralelamente sin cambiar. Ejemplo 16.74. Ahora vamos a estudiar un ejemplo donde la conexión no es cero. Sea la variedad M 2-dimensional, con coordenadas θ, ϕ y con la conexión sin(θ) 1 ϕ Γθθθ = Γθϕϕ = sin(θ) Γϕ θϕ = Γϕθ = − cos(θ) − 1 sin(θ) y vamos a transportar paralelamente un vector sobre esta variedad a lo largo del vector X dado por ∂ ∂ϕ cuya curva integral es un desplazamiento sólo en la dirección ϕ y esta dada por la parametrización θ = θ0 constante y ϕ = θ0 t. Entonces encontremos el desplazamiento paralelo de un vector en M a lo largo de este vector, obtenemos d Yθ ◦γ 0 = + Γθθθ X θ Y θ ◦ γ + Γθϕϕ X ϕ Y ϕ ◦ γ dt dy 1 + sin2 (θ0 )y 2 = dt d (Y ϕ ◦ γ) ϕ θ ϕ ϕ θ + Γϕ 0 = θϕ X Y ◦ γ + Γϕθ X Y ◦ γ dt dy 2 − y1 = dt Para obtener el desplazamiento paralelo de Y , hay que resolver este sistema de ecuaciones con las condiciones iniciales correspondientes al punto inicial. La solución del sistema esta dada por X = sin(θ) y 1 (t) = y 2 (t) = C1 sin (sin (θ0 ) t) + C2 cos (sin (θ0 ) t) C2 C1 sin (sin (θ0 ) t) − cos (sin (θ0 ) t) sin (θ0 ) sin (θ0 ) 4. DERIVADA DE LIE Y DERIVADA COVARIANTE 297 Dado el valor inicial de y 1 y y 2 , se fijan las constantes y se puede encontrar el vector desplazado paralelamente en otro punto, para algún valor de t. De la misma forma podemos calcular la derivada covariante de una 1-forma, dado que ya conocemos la conexión en la variedad. Esto se ve en la proposición siguiente. Proposición 16.75. Sea ∇ conexión en M n . Si ∇eb ea = Γcab ec entonces ∇eb ea = −Γacb ec . Demostración 16.76. Sea Y = Y a ea ∈ T M n y w = wc ec ∈ T ∗ M n . Usemos el hecho que ∇ y por lo tanto ∇eb son derivaciones, entonces ∇eb (wc Y c ) = wc|b Y c + wc Y|bc Y como wc Y c es una función, se tiene: = eb (wc ) Y c + wc eb (Y c ) = (eb (wc ) − Γacb wa ) Y c + wa (eb (Y a ) + Γacb Y c ) Por otro lado, se sigue que: Por lo que entonces ∇eb w = wc|b ec = (eb (wc ) − Γacb wa ) ec Ejercicio 16.77. Demuestre que las componentes de la derivada covariante ···br e ⊗ · · · ⊗ ebr ⊗ ea1 ⊗ · · · ⊗ eas estan dadas ∇eb T , aplicada a un tensor T = Tab11···a s b1 por s r X X bi ···br ···br b1 ···c···br b1 ···br Γcaj b Tab11···c···a − Γ T ) + = e (T Tab11···a b a ···a a ···a cb s 1 s 1 s s |b j=1 i=1 Existe una relación entre todas los operadores diferenciales que hemos definido, la diferencial de p-formas, la derivada de Lie y la derivada covariante. Entre la diferencial de p-formas y la derivada covariante la relación es que la diferencial se puede facilmente generalizar a espacios con conexión ∇. La diferencial exterior, definición 16.21, en espacios con conexión es dw = ∇ ∂ j wi1 ,··· ,ip ∧ dxi1 ∧ · · · ∧ dxip , ∂x que, por ejemplo, para una 1-forma w = wi dxi se obtiene dw = ∇ ∂ ∂xj (wi )dxi = (wi,j − Γkij wk )dxi ∧ dxj . Todas las proposiciones y teoremas que se aplican a la derivada exterior se siguen igualmente con la definición extendida. Por lo general, los coeficientes de conexón en un sistema coordenado {dxi } son simétricos, es decir Γkij = Γkji , en tal caso la definición anterior es exactamente la definición 16.21. La relación entre la derivada de Lie y la derivada covariante, la cual veremos sin demostración, se sigue de la siguiente proposicón. Proposición 16.78. Sea ···br e ⊗ · · · ⊗ ebr ⊗ ea1 ⊗ · · · ⊗ eas T = Tab11···a s b1 tensor. Entonces la derivada de Lie a lo largo del vector X = X c ec de este tensor esta dada por s r X X c c b1 ···br ···br b1 ···c···br bn ···br X|a X = X T + Tab11···c···a − T (16.5) LX Tab11···a a1 ···as s s |c a1 ···as |c m n=1 m=1 Vamos a ver algunos ejemplos de como usar la fórmula (16.5). 298 16. TENSORES Y P-FORMAS Ejemplo 16.79. Vamos a encontrar la derivada de Lie de un vector Y = Y b eb a lo largo del vector X = X c ec . Usando la fórmula (16.5) se tiene b b LX Y b = X c Y|cb − Y c X|c = [X, Y ]b − Dcd X cY d b b donde Dcd = Γbdc − Γbcd. Si las componentes de la conexión son simétricas Dcd = 0, la última igualdad fué dada en la proposción 16.66 sobre las propiedades de la derivada de Lie. Vamos a encontrar ahora la derivada de Lie de una uno forma w = wa ea a lo largo del mismo vector X = X c ec . Usando la fórmula (16.5) se tiene c LX wa = X c wa|c + wc X|a ∂ i i Si {ej } = { ∂x j }, {e } = {dx } son bases coordenadas, entoces solo hay que cambiar i el simbolo | por ; y Djk = 0 generalmente. Ejemplo 16.80. Ahora vamos a buscar la derivada de Lie a lo largo del vector X = X c ec de un tensor T = Tab ea ⊗ eb . De nuevo, usando la fórmula (16.5) se tiene c c + Tac X|b LX Tab = X c Tab|c + Tcb X|a Este resultado lo usaremos más adelante. El interes de la derivada de Lie radica en lo siguiente. Supongamos que ϕ es una isometria (ver capı́tulo 9 definición 9.71). Es decir, esta función deja invariate la métrica ρ ◦ ϕ(X, Y ) = ρ(ϕ(X), ϕ(Y )) = ρ(X, Y ). La presencia de isometrias es común en problemas reales, por ejemplo, si un prblema tiene simetria axial, la métrica del problema permanece inalterada alrededor del eje z, o si el prblema a tratar es periodico, la métrica (Lorentziana) del problema tiene una isometria en el tiempo. Ahora bien, si ϕ es una isometria, la derivada de Lie de la métrica a lo largo de su vector tangente ϕ̇ = X es cero, lo cual se ve de la definición 16.65. Es decir, las simetrias de un problema conducen siempre a derivadas de Lie de la métrica a lo largo del vector de la isometria igual a cero. A los vectores tangente generados por una isometria se les llama vectores de Killing. Su definición formal es la siguiente. Definición 16.81. Sea ϕ un grupo uniparametrico de trasformaciones que a su vez es una isomentria ϕ∗t g = g. Entonces el vector generado por ϕ̇x = X se llama vector de Killing La manera de encontrar los vectores de Killing de una variedad M , es utilizando el ejmplo 16.80. Para esto, supongamos que se tiene una métrica como la definida en el ejemplo 16.12. Entonces se sigue que ∂ Proposición 16.82. Un vector de Killing X = X i ∂x i cumple con la ecuación diferencial LX gij = X k gij;k + gkj X;ik + gik X;jk = 0 donde la mı́etrica esta dada como g = gij dxi ⊗ dxj . Demostración 16.83. Por sustitución directa en el ejercicio 16.80 Comentario 16.84. Mas adelante veremos que una métrica es compatible con la conexión si su derivada covariante es cero, es decir, ∇g = 0. Para estas métricas, las que más nos interesan a nosotros, la ecuación anterior se reduce a Xj;i + Xi;j = 0 4. DERIVADA DE LIE Y DERIVADA COVARIANTE 299 donde hemos definido Xk;i = gkj X;ik . A esta ecuación se le llama la ecuación de Killing Existen varias propiedades de los tensores cuando se les aplican los operadores diferenciales que hemos visto. En lo que sigue, vamos a deducir solo algunas de las propiedades más importantes. Vamos a iniciar con la siguiente proposición. Proposición 16.85. Sean {ea = eai dxi } 1-formas base del espacio cotangente T M y ∇ la derivada covariante en M , tal que Γabc es su conexión asociada. Entonces se sigue que dea = Γabc eb ∧ ec ∗ Demostración 16.86. Sea {eb = ekb ∂x∂ k } la base dual a {ea = eai dxi } en T M . De la definición de la conexión Γabc , se sigue que Γabc = hea , ∇c eb i = heai dxi , ekb;j ejc ∂ i = eak ejc ekb;j ∂xk De una forma análoga se puede ver que ∂ i = eak;j ejc ekb ∂xk Donde hemos usado para simplificar, la notación ∇ec = ∇c . Si juntamos los dos resultados anteriores se tiene −Γabc = h∇c ea , eb i = heai;j ejc dxi , ekb Γabc = eak ejc ekb;j = −eak;j ejc ekb De la definición de diferencial exterior se sigue que dea = = = = = eak;i dxi ∧ dxk eak;i δji δlk dxj ∧ dxl eak;i ebj eib ecl ekc dxj ∧ dxl −eak;i eic ekb eb ∧ ec Γabc eb ∧ ec Esta es la llamada primera forma fundamental de Cartan. Notación 16.87. Es conveniente definir la 1-forma de conexón por Γab = Γabc ec de tal forma que dea + Γab ∧ eb = 0 Para terminar esta sección, vamos a definir las curvas geodésicas. Una curva geodésica es aquella que transporta paralelamente su vector tangente. Es decir: Definición 16.88. Sea γ una trayectoria en una variedad M y X su vector tangente, γ̇ = X. Se dice que la curva descrita por esta trayectoria es una geodésica si ∇X X = 0 300 16. TENSORES Y P-FORMAS Comentario 16.89. La ecuación geodésica también puede escribirse usando la fórmula (16.3) de la curva integral del vector X. drj drk d2 ri dX i ◦ γ + Γijk X j X k ◦ γ = 2 + Γijk =0 dt dt dt dt donde hemos usado la fórmula dri /dt = X i ◦ γ de la curva integral de X. (16.6) Vamos a estudiar un ejemplo sencillo. Ejemplo 16.90. Vamos a estudiar un ejemplo donde la conexión es de la variedad M 2-dimensional, con coordenadas θ, ϕ del ejemplo 16.74. Recordando las ecuaciones del desplazamiento paralelo, podemos escribir las ecuaciones para las geodésicas en este espacio como θ 2 ϕ 2 dr sin(θ) dr d2 rθ + sin(θ) = 0 + 2 dt cos(θ) − 1 dt dt 2 drθ drϕ d2 rϕ − = 0 dt2 sin(θ) dt dt La resolución de este sistema no es simple y en algunos casos se pueden dar soluciones parciales o se resuelven estos sistemas numericamente. 5. El Tensor Métrico y el Tensor de Curvatura La definición de la conexión es, en general totalmente independiente de la métrica de la variedad. En esta sección vamos a definir al tensor de curvatura en terminos de la conexión. Eso quiere decir que la curvatura de la variedad es, en general, totalmente independiente de la métrica. El transporte paralelo, equivalente a la conexión, asi como la curvatura, son cantidades que no dependen, en general, de la métrica de la variedad. Estrictamente hablando, no hay forma de fijar la conexión de una manera universal. En fı́sica, y mas concretamente en relatividad general, la conexión se fija utilizando las ecuaciones de Einstein. La razón por la que introducimos al tensor métrico y al tensor de curvatura en la misma sección, es porque hay una manera particular de fijar la conexón conociendo el tensor métrico, que es la manera canónica utilzada en fı́sica para relacionar a los dos tensores. Ası́, las ecuaciones de Einstein son ecuaciones diferenciales para las componentes del tensor métrico, que a la vez fija la conexión y con ello a la curvatura. Esta conexión es la que más nos va a interesar aquı́. Sin embargo, empezaremos introduciendo al tensor de curvatura sin relación con el tensor métrico, y despues discutiremos el caso especial en el que si estan relacionados. Este último caso es de mucho interes porque la métrica fija la conexión y la curvatura de manera única y nos limitaremos a estudiar las propiedades del tensor de curvatura solo para este caso. Vamos a iniciar introduciendo el tensor métrico. Definición 16.91. Sea M n una variedad n-dimensional y {wa }a=1,··· ,n una base de T ∗ M . Un tensor del tipo (0, 2) simétrico tal que g = ηab wa ⊗ wb donde (η)ab = ηab = diag(±1, · · · , ±1), es un tensor métrico de M . Notación 16.92. A la matriz ηab se le llama la signatura de la variedad. Si η es la matriz identidad, se dice que la variedad es Euclidiana. Si hay solo un uno con signo diferente a los demas, se dice que la variedad es Riemanniana. 5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 301 Sin embargo, en algunos libros (de matemáticas) lo que aquı́ llamamos variedad Euclidiana lo llaman variedad Riemanniana y lo que aqui llamamos Riemanniana lo llaman variedad Pseudoriemanniana o variedad Lorenziana. Con el tensor métrico, la variedad y su espacio tangente adquieren varias estructuras. Si M n es una variedad con métrica, entonces g es un producto interno entre vectores g(X, Y ). El espacio (T M, g) es un espacio Euclidiano y g su producto interno.pCon este producto se define una norma tal que la norma del vector X es ||X|| = g(X, X). Entoces (T M, || · ||) es un espacio normado. Con la norma definimos la métrica sobre T M como p ρ(X, Y ) = ||X − Y || = g(X − Y, X − Y ), entoces (T M, ρ) es un espacio métrico (vea el capı́tulo 9). Sin embargo, debe quedar claro que solo si la sigatura corresponde a una variedad Euclidiana (y sólo en este caso), este tensor define un espacio Euclidiano. En el caso de la signatura Lorenziana, el espacio (T M, g) se llama espacio pseudoeuclidiano, (T M, ||||), ||X|| = g(X, X) es un espacio pseudonormado y (T M, ρ), ρ(X, Y ) = ||X − Y || es un espacio pseudométrico o Riemanniano en la variedad. Claramente, si tomamos una base {eb } dual a {wa }, se tiene que ηab = g(ea , eb ). El caso mas interesante en fı́sica es el de signatura Lorenziana, ya que corresponde al modelo del espacio tiempo. El espacio tiempo es una variedad Riemanniana 4-dimensional, en este caso a los 4 vectores base del espacio cotangente se le llama tetrada. En espacios con signatura Lorenziana entonces los vectores pueden tener normas no positivas. Se clasifica a los vectores segun su norma, si la norma es positiva se dice que el vector es tipo tiempo, si su norma es nula, el vector es tipo nulo y si tiene norma negativa, se dice que el vector es tipo espacio. Para signaturas Lorenzianas podemos usar la signatura η = diag(1, 1, 1 − 1). Sin embargo, es posible usar signaturas no diagonales, como 0 1 0 0 1 0 0 0 η= 0 0 0 −1 0 0 −1 0 Esta signatura define una base del espacio muy particular llamada tetrada nula, ya que g(ea , ea ) = 0 (no sumatoria!) para todo a = 1, 2, 3, 4. Esto es, los vectores base del espacio tangente tienen norma (magnitud) nula. Es mas, el producto interno de los vectores e1 y e2 es g(e1 , e2 ) = 1, y de los vectores e3 y e4 es g(e3 , e4 ) = −1. Claramente, en este caso la norma y por tanto la distancia, no cumplen con el axioma de ser definidas positivas. Esta signatura es de gran interes en relatividad general. En una base arbitraria, {wa = wia dxi }, el tensor métrico se escribe como g = gab wa ⊗ wb = gab wia wjb dxi ⊗ dxj = gij dxi ⊗ dxj donde hemos definido la cantidad gij = gab wia wjb . En ocaciones se acostumba designar por el simbolo ds2 a la métrica, es decir ds2 = gij dxi ⊗ dxj . Ahora vamos a definir la métrica compatible con la conexión. Definición 16.93. Sea M variedad con conexión ∇ y métrica g. Se dice que g es una métrica compatible con la conexión ∇ si ∇c g = 0, ⇔ ec (gab ) − Γbac − Γabc 302 16. TENSORES Y P-FORMAS para todo vector ec , donde hemos utilizado el resultado del ejercicio 16.77 y hemos definido la cantidad Γabc = gad Γdbc . De aqui se desprende inmediatamente que si la conexión ∇ y la métrica g son compatibles, se sigue entonces una relación para las componentes de la métrica dada por (16.7) dgab = Γba + Γab ya que si multiplicamos la relación de la definición 16.93 por los duales ec de los vectores base ec , se llega a la relación anterior, recordemos que Γcb = Γcbd ed . Esta definición también trae como consecuencia que un tensor métrico compatible con la conexión, define la univocamente la conexión en la variedad. Esto se ve en la siguiente proposición. Proposición 16.94. Sea M n variedad n-dimensional con conexión ∇ y métrica g compatible con la conexión. Entonces las componentes de la conexión son determinadas univocamente por las componentes del tensor métrico. ∂ Demostración 16.95. Sea { ∂x i }i=1,··· ,n una base coordenada de la variedad M . De la definición de compatibilidad para esta base coordenada entre la métrica y la conexión, se tiene que n −gij,k + Γjik + Γijk gki,j − Γikj − Γkij gkj,i − Γjki − Γkji = = 0 0 = 0 Si sumamos estas tres ecuaciones, obtenemos 1 Γkij = (gki,j + gkj,i − gij,k ) 2 ya que Γkij es simétrica en los indices ij. Asi mismo podemos definir análogamente los coeficientes de conexión 1 Γkij = g kl (gli,j + glj,i − gij,l ) 2 donde g kl es la matriz inversa a gij , es decir g kl glj = δjk . Notación 16.96. A los coeficientes de conexión Γkij de una base coordenada se les llama simbolos de Christoffel. Para poder obtener los coeficiente de conexión en otra base, observemos que ea Γabc eb ⊗ ec no depende de las bases, asi que ∂ ∂ Γabc ea ⊗ eb ⊗ ec = Γabc eia i ⊗ ebj eck dxj ⊗ dxk = Γijk i ⊗ dxj ⊗ dxk ∂x ∂x donde se ha definido la cantidad Γijk = eia Γabc ebj eck Claramente hemos usado las bases duales {ea } y {eb }. Para escribir los coeficientes Γabc en terminos de los Γijk , se usan las relaciones de dualidad eia ebi = δba y eib ebj = δji , de donde obtenemos Γabc = eai Γijk ejb ekc Ahora vamos a introducir la dos forma de curvatura. La curvatura se define en un espacio con conexión, no necesariamente con métrica. Formalmente su definición es 5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 303 Definición 16.97. Sea M n variedad y ∇ una conexión en M n . Entonces la dos forma de curvatura o segunda forma fundamental de Cartan, se define como Θab = dΓab + Γac ∧ Γcb En término de sus componentes, podemos escribir a la dos forma de curvatura como ciertos coeficientes por la base de las 2-formas, es decir Θab = 1 a c R e ∧ ed 2 bcd a donde claramente {ea } es una base de T ∗ M n . A las componentes Rbcd se les conoce como tensor de curvatura, ya que a su vez son las componentes de un tensor que a se puede escribir como R = Rbcd ea ⊗ eb ⊗ ec ⊗ ed . También podemos obtener las componentes de la dos forma de curvatura en términos de las componentes de la conexión. Observemos que de su definición se sigue Θab = Γabc|d − Γecd Γabe ed ∧ ec + Γaec Γebd ec ∧ ed 1 1 a Γbc|d − Γabd|c ed ∧ ec + (Γaec Γebd − Γaed Γebc ) ec ∧ ed = 2 2 1 (−Γecd Γabe + Γedc Γabe ) ed ∧ ec + 2 1 a e a Γbe ec ∧ ed Γbd|c − Γabc|d + Γaec Γebd − Γaed Γebc + Dcd = 2 de donde obtenemos que las componentes estan dadas por a e a Rbcd = Γabd|c − Γabc|d + Γaec Γebd − Γaed Γebc + Dcd Γbe En un sistema coordenado, las componentes del tensor de curvatura estan dadas por una expresión un poco más simple i Rjkl = Γijl,k − Γijk,l + Γink Γnjl − Γinl Γnjk El tensor de curvatura tiene una interpretación geométrica doble. Por un lado, es una medida de la diferencia que existe entre un vector y el mismo al ser transportado paralelamente a lo largo de una curva cerrada. El tensor de curvatura nos da una medida de cuanto se diferencia el vector inicial y el final, despues de ser transportado. Si la curvatura es cero, esa diferencia también es cero. Y también nos da la separación que experimentan dos geodésicas al propagarse paralelamente. Si se trata de un espacio de curvatura cero, las geodésicas no se separan o se juntan, se propagan paralelamente. Pero si la curvatura no es cero, estas suelen separarse o juntarse. El tensor de curvatura es una medida de esta separación. El tensor de curvatura cumple con varias identidades y relaciones que sirven para simplificar su cálculo. Vamos a derivar las mas importantes, empecemos por una relación que aplica a la segunda derivada de un vector y al tensor de curvatura. Proposición 16.98. Sea M n variedad y ∇ la conexión en la variedad. Sea w = wi dxi una 1-forma en M n . Entonces se sigue que l wi;j;k − wi;k;j = Rijk wl 304 16. TENSORES Y P-FORMAS Demostración 16.99. La demostración es por cálculo directo, se tiene que wi;j = wi,j − Γlij wl , entonces se sigue wi;j;k = wi,j − Γlij wl ,k − Γnik wn,j − Γlnj wl − Γnjk wi,n − Γlin wl Recordemos que las componentes de la conexión en un sistema coordenado son simétricas, asi que wi;j;k = wi,jk − Γlij,k wl − Γlij wl,k − Γlik wl,j − Γnik Γlnj wl − Γnjk wi,n − Γlin wl wi;k;j = wi,jk − Γlik,j wl − Γlik wl,j − Γlij wl,k − Γnij Γlnk wl − Γnjk wi,n − Γlin wl ⇒ wi;j;k − l wl wi;k;j = Γlik,j wl − Γlij,k wl + Γnij Γlnk wl − Γnik Γlnj wl = Rijk ∂ Ejercicio 16.100. Sea M n variedad y X = X i ∂x i . Demuestre que i i i X;j;k − X;k;j = −Rljk Xl ···jr ∂ ⊗ ··· ⊗ Ejercicio 16.101. Sea M n variedad y T = Tij11···i s ∂xj1 n is · · · ⊗ dx un tensor en M . Demuestre por inducción que ···jr ···jr = − Tij11···i Tij11···i s ;k;j s ;j;k s X l=1 ···jr Rinl jk Tij11···n···i − s r X l=1 ∂ ∂xjr ⊗ dxi1 ⊗ jl ···n···jr Rnjk Tij11···i s Observen que de la proposición 16.98 y del ejercicio 16.100 se desprenden la i i relación para las componentes del tensor de curvatura Rjkl = −Rjlk . Si aplicamos la relación del ejercicio 16.77 al tensor de curvatura, obtenemos l l gnm;j;k − gnm;k;j = Rnjk glm + Rmjk gnl de donde se desprende que para una conexión compatible con la métrica g, se sigue l que Rmnjk = −Rnmjk , donde Rmnjk = Rnjk glm . Otra relación que debemos explorar es las consecuencias sobre la curvatura de la realción ddw = 0 para una 1-forma w. Dado que dw = wi;j dxj ∧ dxi , se sugue que ddw = wi,j − Γnij wn ;k dxk ∧ dxj ∧ dxi = wi,j − Γnij wn ,k − Γlik wl,j − Γnlj wn − Γljk (wi,l − Γnil wn ) dxk ∧ dxj ∧ dxi = −Γnij,k wn − Γnij wn,k − Γlik wl,j − Γlik Γnlj wn dxk ∧ dxj ∧ dxi = −Γnij,k − Γlik Γnlj wn dxk ∧ dxj ∧ dxi n = Rijk wn dxk ∧ dxj ∧ dxi = 0 de donde se sigue la relación (16.8) n n n Rijk + Rkij + Rjki = 0. Una relación que es muy importante para entender la teorı́a general de la relatividad, son las identidades de Bianchi. Estas identidades se obtienen en la siguiente proposición. 5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 305 Proposición 16.102 (Identidades de Bianchi). Sea M n variedad con conexión n ∇ y tensor de curvatura Rijk . Entonces se sigue que n n n Rijk;l + Rikl:j + Rilj;k =0 Demostración 16.103. Sea w = wl dxl una 1-forma en M n . Si usamos la fórmula del ejercicio 16.101 para el tensor wi;l , se obtiene n n wi;l;j;k − wi;l;k;j = Rijk wn;l + Rljk wi;n Ahora aplicamos la derivada covariante al resultado de la proposición 16.98, se obtiene n n wi;j;k;l − wi;k;j;l = Rijk;l wn + Rijk wn;l Ahora usamos el mismo procedimiento anterior, sumamos ambos resultados anteriores cambiando los indices j, k, l circularmente. Se obtiene wi;l;j;k − wi;l;k;j wi;k;l;j − wi;k;j;l = = n n Rijk wn;l + Rljk wi;n n n wi;n Rilj wn;k + Rklj wi;j;k;l − wi;j;l;k = n n Rikl wn;j + Rjkl wi;n wi;j;k;l − wi;k;j;l wi;k;l;j − wi;l;k;j = = n n Rijk;l wn + Rijk wn;l n n Rikl;j wn + Rikl wn;j = n n Rilj;k wn + Rilj wn;k wi;l;j;k − wi;j;l;k y restamos las 3 identidades de arriba menos los 3 identidades de abajo, se obtiene n n n n n n wn wi;n − Rijk;l + Rikl;j + Rilj;k 0 = Rljk + Rklj + Rjkl pero lo que esta entre el primer paréntesis es cero, por la relación (16.8) que encotramos anteriormente, asi que se sigue lo que buscamos. Notación 16.104. A las relaciones anteriores se les llama las Identidades de Bianchi. Resumen 16.105. Vamos a resumir las identidades salidas del tensor de curvatura. 1.− 2.− i i Rjkl = −Rjlk n n n Rljk + Rklj + Rjkl =0 3.− 4.− n n n Rijk;l + Rikl;j + Rilj;k Identidades de Bianchi Rmnjk = −Rnmjk Conexiones Compatibles con la métrica En lo que sigue veremos algunos ejemplos de curvatura, por supuesto, si conocemos la conexión, es sencillo calcular la curvartura usando su definición o la segunda forma fundamental de Cartan. Pero nosotros vamos a utilizar solo conexiones que son compatibles con la métrica. Asi que para calcular la conexión conociendo la métrica, puede usarse la definición de los simbolos de Christoffel o la primera forma fundamental de Cartan. Vamos a resumir todas estas definciones en este espacio. 306 16. TENSORES Y P-FORMAS Resumen 16.106. Sea M n variedad con métrica g = ηab dwa ⊗ dwb = gij dxi ⊗ dx , donde {w = wi dxi } es una base y {dxi } es una base coordenada del espacio contangente T ∗ M n . Entonces, la conexión y la curvatura estan determinadas por j 1.− 2.− 3.− 4.− dwa + Γab ∧ wb = 0 Θab = dΓab + Γac ∧ Γcb Para una base no coordenada 1 Γijk = g il (glj,k + glk,j − gjk,l ) 2 i Rjkl = Γijl,k − Γijk,l + Γink Γnjl − Γinl Γnjk Para una base coordenada Ejemplo 16.107. En este ejemplo vamos a utilizar la notación convencional dw ⊗ dw → dw2 . Vamos a buscar la métrica de la pelota S 2 . Como la pelota esta inmersa en ℜ3 , la forma mas simple de encotrar la métrica de la pelota es substituyendo la ecuación de la pelota de radio a, x2 + y 2 + z 2 = a2 , en la métrica 2 2 2 2 euclidiana de ℜ3 , dlℜ 3 = dx + dy + dz . Si substituimos dz 2 = (xdx + ydy)2 a2 − (x2 + y 2 ) obtenemos dlS2 2 = dx2 + dy 2 + (xdx + ydy)2 a2 − (x2 + y 2 ) Ahora bien, podemos usar coordenadas polares x = R cos(θ), y = R sin(θ) en la métrica, para obtener a2 dR2 dlS2 2 = R2 dθ2 + 2 a − R2 Conviene escribir la métrica de la pelota en términos del cociente r = R/a, entonces la métrica se ve como dr2 2 2 2 2 + r dθ dlS 2 = a 1 − r2 Para finalizar este ejemplo, vamos a escribir la métrica del espacio ℜ3 en términos de las coordenadas esféricas 15.1 (vamos a cambiar la r de la definición 15.1 por a, para denotar el radio de la esfera), se obtiene 2 2 2 2 dlℜ = da2 + a2 dθ2 + sin2 (θ)dϕ2 3 = dx + dy + dz la cual es la métrica euclidiana, pero ahora escrita en coordenadas esféricas. Si limitamos esta métrica a la pelota, es decir, si hacemos a =constante, obtenemos dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2 = a2 dΩ2 que es la métrica de la pelota pero en coordenadas esféricas. Hay que comparala con la anterior forma que esta en coordenadas polares y con la métrica que se obtiene si g = dw1 ⊗ dw1 + dw2 ⊗ dw2 , usando las formas de la pelota definidas en 15.2 en el ejemplo 15.63. Esta comparación es la que justifica el uso de la notación de este ejemplo. 5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 307 Ahora vamos a calcular la conexión y la curvatura. Primero lo haremos usando la base coordenada. Usando las formulas del resumen 16.106, se obtiene dr2 2 2 + r dθ dlS2 2 = a2 1 − r2 r 1 Γrrr = Γrθθ = −r(1 − r2 ) sin2 (θ), Γθθθ = cot(θ), Γθrθ = 2 1−r r 1 θ r 2 2 Rrrθ = − , Rθrθ = r sin (θ) 1 − r2 y todas las demas componentes igual a cero. También podemos calcular estas cantidades de la métrica en coodenadas esféricas, se obtiene dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2 Γϕ θϕ θ Rϕθϕ = cot(θ), = sin2 (θ), Γθϕϕ = − sin(θ) cos(θ) ϕ Rθθϕ = −1 Ejercicio 16.108. Siguiendo el ejemplo anterior, demuestre que la métrica de S 3 en coordenadas esféricas esta dada por dr2 2 2 2 2 2 2 + r dθ + sin (θ)dϕ dlS 3 = a 1 − r2 donde a es el radio de la esfera S 3 y r/a → r. Esta es la parte espacial de la métrica de Friedman-Robertson-Waker. Calcule la conexión y el tensor de curvatura de esta métrica. Ejemplo 16.109. Sea M 4 una variedad con métrica de signatura Lorenziana dada por g = ηab wa ⊗ wb , ηab = diag(1, 1, 1, 1 − 1), donde la tetrada esta dada por w1 = w3 = t t √ dx, w2 = √ dy, x > 0 x x x x r r r 3x 2 2 4 dz + dt, w = dt 2 3x 3x Lo primero que hay que notar, es que se debe cumplir la relación 16.7, es decir, dηab = Γab + Γba = 0, entonces la conexión es antisimétrica en los indices ab. Recordemos que Γab = ηad Γdb . Vamos a calcular la conexión utilizando las formulas 1 y 2 del resumen 16.106. Para esto encontremos primero la diferencial de la tetrada, esta es dw1 = dw3 = 3 x−3/2 dt ∧ dx, dw2 = − x−5/2 t dx ∧ dy + x−3/2 dt ∧ dy, 2 ! r r r 1 2 −3/2 3 −1/2 2 −3/2 1 4 x dx ∧ dz − x dx ∧ dt dw = − x dx ∧ dt 2 2 3 2 3 que en terminos de la tetrada, se obtiene √ 3√ 1√ dw1 = 6x w4 ∧ w1 , dw2 = − x w1 ∧ w2 + 6x w4 ∧ w2 2 t √ √ 1√ x w1 ∧ w3 − 2 x w1 ∧ w4 , dw4 = − x w1 ∧ w4 dw3 = 2 308 16. TENSORES Y P-FORMAS De aqui podemos entonces leer las componentes de la conexión √ √ Γ14 = − 6xw1 − x w4 3√ 2 1√ Γ21 = xw , Γ24 = − 6x w2 , 2 t √ √ 1√ Γ31 = − x w3 + x w4 , Γ34 = − x w1 , 2 donde hemos tomado en cuenta la antisimetria de la conexión, por ejemplo, agregando términos convenientes a las componentes Γ14 y Γ41 . Ahora calculemos el tensor de curvatura, obtenemos, 1 Θ14 = − x w1 ∧ w4 2 ! √ 6 6 3 w1 + w4 Θ21 = x w2 ∧ − + 4 t t ! r 1 2 3 1 4 1 2 2 w −3 w −3 2 + Θ4 = x w ∧ 2 t t 2 1 Θ31 = − x w1 ∧ w3 − 2 w4 4 ! r √ 3 1 Θ34 = x − w1 ∧ w3 + 6 w1 ∧ w4 + w3 ∧ w4 2 2 de donde se pueden leer las componentes de la curvatura en esta base. Para terminar este capı́tulo, vamos a introducir tres tensores mas, estos son la contracción del tensor de curvatura, la traza de este tensor y una combinación muy adecuada de estos dos. Vamos a iniciar con las contracciones del tensor de curvatura. Definición 16.110. Sea M n variedad y sea {ea } una base del espacio tangente a con dual {eb }. Sea ∇ conexión en M n y tensor de curvatura R = Rbcd ea ⊗ eb ⊗ c d e ⊗ e . Entonces el tensor de Ricci es es la contracción del tensor de curvatura, tal que b = C 1 R = Ra eb ⊗ ed = Rbd eb ⊗ ed R 2 bad Análogamente, la traza del tensor de Ricci se llama escalar de Ricci, es decir donde Rdc = η cb Rbd b = Rd R = C11 R d La importancia de estas dos nuevas cantidades radica en el siguiente proposición Proposición 16.111. Sea M n variedad y sea {ea } una base del espacio tangente con dual {eb }. Sea g = ηab wa ⊗ wb una métrica en M n compatible con la a ea ⊗ eb ⊗ ec ⊗ ed . conexión. Sea ∇ conexión en M n y tensor de curvatura R = Rbcd Entonces se sigue que 1 =0 Gab |b = Rab − g ab R 2 |b 5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA 309 Demostración 16.112. Vamos a demostrar la proposición en el sistema coordenado, la demostración en general es equivalente. Ecribamos las identidades Bianchi en componentes, contrayendo los indices adecuados para obtener el tensor de Ricci, esto es n n n i i i 0 = Rink;l + Rikl;n + Riln;k = Rik;l + g nm Rmikl;n − Ril;k = Rk;l − g nm Rmkl;n − Rl;k Y volvamos a contraer los indices k k k k Rk;l − g nm Rmkl;n − Rl;k = R;l − g nm Rml;n − Rl;k = R;l − 2g nm Rml;n = 0 Si multiplicamos por 1/2 y la inversa de las componentes de la métrica en esta última expresión, llegamos al resultado deseado. Este resultado es de suma importancia en fı́sica, ya que es la ralación fundamental para definir las ecuaciones de Einstein. Notación 16.113. Al tensor Gab ea ⊗ eb cuyas componentes estan definidas por 1 Gab = Rab − gab R 2 se le llama tensor de Einstein. El hecho de que la contracción del tensor de Einstein con la derivada covariate sea cero, hacen a este tensor el candidato idonea para ser la parte geométrica de las ecuaciones fundamentales de la gravitación. Vamos a ver un ejemplo. Ejemplo 16.114. Vamos a calcular el tensor de Ricci de la pelota S 2 en coordenadas esféricas. Primero hay que usar las propiedades del tensor de curvatura del resumen 16.105 para encontrar todas las componentes no cero del tensor. Lo primero que hay que notar es que la única componente no cero es Rθϕθϕ = a2 sin2 (θ), y con ellos calcular Rθθ ϕ θ = Rθθθ + Rθϕθ = 1, Rϕθ ϕ θ + Rϕϕθ = 0, = Rϕθθ ϕ θ Rθϕ = Rθθϕ + Rθϕϕ = 0, ϕ θ Rϕϕ = Rϕθϕ + Rϕϕϕ = sin2 (θ), ϕ Entonces podemos calcular el escalar de Ricci, haciendo R = Rθθ + Rϕ = 2/a2 y con él finalmente calcular el tensor de Einstein. El resultado es que G = 0. Ejercicio 16.115. Calcule el tensor de Ricci, el escalar de Ricci y el tensor de Einstein para la métrica de la pelota S 2 en coordenadas polares. Ejercicio 16.116. Calcule el tensor de Ricci, el escalar de Ricci y el tensor de Einstein para la métrica de la pelota S 3 en coordenadas esféricas. Ejercicio 16.117. Calcule el tensor de Ricci, el escalar de Ricci y el tensor de Einstein para la métrica del ejemplo 16.109 CHAPTER 17 HACES FIBRADOS 1. Haces Los haces fibrados son unos de las estructruras matemáticas mas fascinantes que hay. Son la generalización del producto cartesiano entre espacios topológicos. Ya sabemos que el producto cartesino de dos espacios topológicos es un espacio topológico. Los haces son productos cartesianos de espacios topologicos localmente, aunque no necesariamente el espacio resultante, el haz, es un porducto cartesiano. El ejemplo mas simple es la cinta de Möbius. Localmente se puede ver como producto cartesiano de la recta con el cı́rculo, pero globalmente, es decir, toda la cinta no es un producto cartesiano. Vamos a iniciar este capı́tulo con la definición de haz, luego vamos a introducir el concepto de haz fibrado. Definición 17.1. Un haz es una terna ξ = (E, B, π) donde E y B son espacios topológicos y π : E → B es una función contı́nua y sobre. Se llama: · A E espacio total, · A B espacio base y · A π la proyección. La representación gráfica de los haces es como sigue π E ↓ B Notación 17.2. Si b ∈ B, Fb (ζ) = π −1 ({b}) se le llama la fibra sobre b. Comentario 17.3. Observe que si b 6= b′ , entonces Fb ∩ Fb′ = φ, por eso E = ∪ Fb (ξ), el espacio total es la unión de las fibras disjuntas de B. (Fb , τFb ), b∈B siendo τFb = {Fb ∩ U }U∈τE un subespacio topológico de (E, τE ). Entre los haces existe también el concepto de isomorfismo, se puede clasificar a los haces usando los isomorfismos entre haces, dos de estos son el mismo, si son isomórficos. Definición 17.4. Dos haces ξ = (E, B, π) y ξ ′ = (E ′ , B, π ′ ) son isomórficos f ξ ≡ ξ ′ , si existe f : E → E ′ homeomorfismo, tal que π ′ ◦ f = π. Gráficamente se tiene f E −→ E′ πց ւ π′ B Definición 17.5. Un haz ξ = (E, B, π) se llama trivial si existen F , espacio ϕ topológico y ϕ : E → B × F homeomorfismo y se cumple que ξ ≃ (B × F, B, π1 ). 311 312 17. HACES FIBRADOS Gráficamente, un haz es trivial si se ve como ϕ E −→ B × F πց ւ π1 B Definición 17.6. Una sección s del haz ξ = (E, B, π) es una función continua s : B → E tal que π ◦ s = id|B , es decir s(b) ∈ Fb tal que b ∈ B. Esto es s↿ E ↓ B π Los haces triviales tienen la caracteristica especial de tener una sección, es decir, se puede definir una función que vaya de la base del haz a todo el haz, a un punto de cada fibra del haz. Esto se ve en la siguiente proposición Proposición 17.7. Todo haz trivial tiene al menos una sección. Demostración 17.8. Sea ζ = (E, B, π) un haz trivial, ϕ : E → B × F un homeomorfismo y ψ : B → F una función continua arbitraria. Entonces s = B → E, b → s(b) := ϕ−1 (b, ψ(b)) es continua, pues ϕ−1 y ψ lo son, y π ◦ s(b) = π ◦ ϕ−1 (b, ψ(b)) = π1 (b, ψ(b)) = b. Gráficamente ϕ E −→ B × F sտπց ւ π1 B Definición 17.9. Un haz fibrado es un haz ζ = (E, B, π) que es localmente trivial, esto es, para toda cubierta {Uα }α∈J de B y cada sub-haz π −1 (Uα ) , Uα , π|π−1 (Uα ) = α, existe F tal que el haz (Uα × F, Uα , π1 ) := αF es isomórfico a α, es decir existe ϕα : π −1 (Uα ) → Uα × F homemorfismo y π1 ◦ ϕα = π|π−1 (Uα ) . Su gráfica serı́a ϕα π −1 (Uα ) −→ Uα × F π|π−1 (Uα ) ց ւ π1 Uα Notación 17.10. A (Uα , ϕα ) se le llama sistema de coordenada local del haz, a F la fibra del haz y a ϕα se le llama la trivialización local. Comentario 17.11. Observe que un haz fibrado tiene siempre una sección local, es decir, para cada Uα con α ∈ J el haz α tiene una función sα . sα : Uα → π −1 (Uα ) con π ◦ sα = Id|Uα , sin embargo, si el haz no es globalmente trivial, no existira una sección del haz (total). Sea ξ = (E, B, π, F, U ) haz fibrado con U = {Uα }α∈J una cubierta de B. Sean Uα ∩Uβ 6= φ α, β ∈ J, (Uα , ϕα ) y (Uβ , ϕβ ) dos sistemas de coordinadas locales en ξ y F la fibra del haz. Como ξ es un haz fibrado, es localmente trivial y por tanto posee una sección en cada Uα ⊂ B. Sea sα y sβ secciones locales para cada (Uα , ϕα ) y −1 (Uβ , ϕβ ), tales que sα (b) = ϕ−1 α (b, ψα (b)) y sβ (b) = ϕβ (b, ψβ (b)). Las funciones de transición del haz son funciones gαβ : Uα ∩Uβ → Aut(F ), b → gαβ (b) : F → F, f → gαβ (b)(f ) tales que la composición de homeomorfismos ϕβ ◦ ϕ−1 α = (Uα ∩ Uβ ) × F → (Uα × Uβ ) × F, (b, f ) → ϕβ ◦ ϕ−1 α (b, f ) = (b, gαβ (b)(f )) , 2. ESPACIOS G 313 es decir gαβ queda definida por ϕβ ◦ ϕ−1 α = Id|Ua ∩Uβ ×gαβ . Observe que para cada F , ({gαβ (b)} ,◦) ⊂ Aut(F ) y por tanto es un grupo llamado el grupo de subgr. estructura del haz. La identidad está dada por gαα (b) y la inversa por gαβ (b) = −1 (gβα (b)) . 2. Espacios G Los espacios topolgicos pueden tener a su vez, otras estructuras ya sea algebraicas o analiticas. En el capı́tulo anterior vimos espacios topológicos dotados de métrica, norma y producto interno. Vamos a introducir aqui una estructura algebraica extra dentro de un espacio toplógico, dotando al conjunto que forma el espacio topológico con una estructura de grupo. A estos espacios se les llama grupos topolǵicos. Su definición es la siguiente. Definición 17.12. Un grupo topológico es una terna (G, ·, τg ) en donde (G, ·) es un grupo y (G, τG ) es un espacio topológico, y se cumple que las funciones a) ·: G × G → G, (a, b) → a · b b) inv. : G → G, a → inv(a) = a−1 son continuas. Hay una manera sencilla de saber si la estructura de grupo de un conjunto es compatible con la topologı́a. Vamos a presentar aquı́ la proposición sin demostración que nos da este criterio. Esta es: Proposición 17.13. La terna (G, ·, τG ) con (G, ·) grupo y (G, τG ) espacio topológico, es un grupo topológico ssı́ para toda a, b ∈ G y para toda Uab−1 ∈ τG existe Ua y Ub ∈ τG tal que Ua (Ub )−1 = a · b−1 |a ∈ Ua , b ∈ Ub ⊂ Uab−1 . En lo que sigue vamos a introducir dos funciones que son de mucha utilidad para más adelante, pero que ahora nos ayudaran a introducir los espacios G. Estas son las funciones de traslación. Su definición es para cualquier grupo topológico, pero seran de gran utilidad cuando estudiemos grupos de Lie. La caracteristica más importante de estas fuciones es que son automorfimos del grupo topológico. Vamos a ver esto en la siguiente proposicón. Proposición 17.14. Sea (G, ·, τG ) grupo topológico y g ∈ G. Las funciones y Lg : G → G x → Lg(x) := gx Rg : G → G x → Rg(x) := xg llamadas traslación izquierda y traslación derecha por g respectivamente, son automorfismos de G. Demostración 17.15. Lg y Rg son continuas porque el producto y la inversa son continuas. Además tienen inversa continua, ya que (Lg)−1 = Lg −1 y (Rg)−1 = Rg −1 , ie. Lg ◦ Lg −1 (x) = Lg(g −1 x) = gg −1 x = x e igual para Rg. Habiendo definido las traslaciones en un grupo topológico, ahora podemos introducir los espacios G. Los espacios G son estructuras en un espacio topológico, de 314 17. HACES FIBRADOS una manera sencilla, es la axión de un grupo topológico sobre un espacio topológico. Veamos esto formalmente. Definición 17.16. Un espacio G derecho es una terna (E, G, ψ), donde E es un espacio topológico, G es un grupo topológico y ψ : E × G → E (x, g) −→ ψ(x, g) es una función continua tal que 1) ψ(x, e) = x 2) ψ (x, g1 · g2 ) = ψ (ψ(x, g1 ), g2 ) Notación 17.17. Es común denotar a ψ (x, g) como xg solamente. Definición 17.18. Análogamente, se define un espacio G izquierdo con ϕ : G × E → E continua tal que: 1) ϕ(e, x) = x 2) ϕ (g1 · g2 , x) = ϕ (g1 , ϕ (g2 , x)) Aquı́ también, suele denotarse a ϕ(g, x) por gx. Estas funciones son análogas a las definidas cuando vimos los grupos uniparemétricos de trasformaciones, en el capı́tulo anterior. De la misma forma a los grupos uniparametricos, la función ψ induce la función ψg : E x → E → ψg (x) = ψg (x, g) que cumple con las propiedades: i) ψe (x) = x ii) ψg1 g2 (x) = ψg1 ◦ ψg2 (x) Se dice entonces que G actúa por la derecha sobre E ó análogamente que actúa por la izquierda de E. A las acciones derecha e izquierda se les puede clasificar. Una clasificación esta dada como sigue. Definición 17.19. Sea (G, E, ψ) un espacio G derecho. La acción derecha de G sobre E se dice : · Efectiva si ψ (x, g) = x para toda x ∈ E implica g = e · Libre si ψ (x, g) = x para algún x ∈ E implica g = e · Transitiva si para todo x, y ∈ E existe algún y ∈ E tal que y = Ψ (x, g) (Análogamente se hace la misma clasificación para la acción por la izquierda) La acción de grupos sobre espacios topológicos tiene algunas propiedades. Vamos a discutir algunas de las más importantes. Proposición 17.20. Si la acción de G sobre E es libre entonces es efectiva. Demostración 17.21. Supongamos que la acción no es efectiva, esto implica que existe algún g0 ∈ G, g0 6= e tal que ψ (x, g0 ) = x para toda x ∈ E y por lo tanto la acción no es libre. Proposición 17.22. Si la acción de G sobre E es libre y transitiva, entonces para toda x, y ∈ E, existe un único g ∈ G tal que ψ (x, g) = y, Demostración 17.23. Sean x, y ∈ E y g ∈ G tal que ψ (x, g) = y ya que ψ ′ es transitiva. Sea g ′ ∈ G tal que también = y. Entonces x = ψ x, g g −1 ϕ (x, g ′) −1 −1 ′ −1 = ψ ψ (x, g) , g = ψ ψ (x, g ) , g = ψ x, g g , esto implica que g −1 = e, o ′ sea g = g. 3. HACES FIBRADOS PRINCIPALES 315 Los isomorfismos en los espacios G son análogamente definidos en términos de sus estructuras separadas. Vamos a ver su definición formal. Definición 17.24. Dos espacios G derechos γ = (E, G, ψ) y γ ′ = (E ′ , G, ψ ′ ) se dicen isomórficos si existe h : E → E ′ homeomorfismo tal que ψ ′ ◦ (h × idG ) = h ◦ ψ h ◦ ψg = ψg′ ◦ h . h Se denota como γ ∼ = γ ′ ó γ h×id|G ∼ = γ′ Esta definición se puede poner en terminos del diagrama ψ E×G −→ E h × id|G ↓ ↓h ψ′ E′ × G −→ Es decir, el diagrama anterior conmuta. E′ 3. Haces Fibrados Principales La sección anterior tiene por objetivo introducir los haces fibrados principales. Estos son haces en donde la fibra y el grupo que actua en él son el mismo grupo. Su importancia radica en que estos haces son un excelente modelo para espacios tiempo multidimensionales. De tal forma que si el espacio tiempo 4 dimensional es la base del haz, el grupo del haz puede ser parte del grupo de alguna teorı́a de norma, en donde actua el grupo. La descomposición del haz da una teorı́a natural para la unificación de teorı́as de norma y el espacio tiempo. Vamos a iniciar con la definición de haces fibrados principales. Definición 17.25. Un haz fibrado principal es un sexteto (P, B, π, G; U, ψ) donde (P, B, π, G; U ) es un haz fibrado y (P, G, ψ) es un espacio G derecho tal que se cumplen los isomorfismos de G espacios π −1 (Uα ) , G, ψ donde (ϕα ,ϕα × id ∼ = |G ) (Uα × G, G, δ) δ : (Uα × G) × G → Uα × G ((x, g) , g ′ ) → δ ((x, g) , g ′ ) := (x, g g ′ ) . El diagrama π −1 (Uα ) × G conmuta. ϕα × id |G ↓ (Uα × G) × G ψ −−−−−−→ −−−−s−−−→ π −1 (Uα ) ↓ ϕα Uα × G Entonces un haz fibrado principal, es un haz fibrado, es decir, un haz localmente trivial, en el que el grupo G es lo mismo que la fibra y es lo mismo que el grupo de estructura. Se representa como en la figura 1. De la definición de δ, es claro entonces que G actúa libre y transitivamente sobre el haz. Proposición 17.26. Un haz fibrado principal es trivial si tiene una sección (global). 316 17. HACES FIBRADOS Figure 1. Un haz fibrado principal, es un haz fibrado, es decir, un haz localmente trivial, en el que el grupo G es lo mismo que la fibra y es lo mismo que el grupo de estructura. Estos haces son muy importantes en fı́sica. Demostración 17.27. ⇒) Un haz fibrado trivial tiene una sección. ⇐) Sea s : B → P en el haz ζ = (P, B, π, G; U ; ψ) y construyamos un homeomorfismo ϕ:P → B×G x → ϕ(x) = (b, g) con π (x) = b y x = ψ (s (b) , g) = s(b)g, es decir ϕ(s(b)g) = (b, g). (Esto es siempre posible, ya que G actúa libre y transı́tivamente en P ). Claramente ϕ es sobre. ϕ es inyectiva, ya que x 6= = x′ ⇒ ϕ (x = s (b) g) = ′ s(b′ )g, x′ ∈ / Fb (b , g) (b, g) 6= ϕ x′ = = (b, g ′ ) s(b)g ′ x′ ∈ Fb Además ϕ es continua, pues s lo es. Entonces ϕ es un homeomorfismo. Ejemplo 17.28. El ejemplo más simple es el producto cartesiano. Sea P = B × G, donde B es una variedad y G un grupo. La proyección es simplemente π −1 (p) = b, con π (b) = Fb ∼ = G. Supongamos que B = ℜ4 y G = U (1). + Recordemos que el grupo U (N ) = {U matriz compleja N × N | U U = 1} por lo que U (1) = U número complejo | U U = 1 . Podemos representar los elementos de U (1) por g1 = eiϕ1 , 0 ≤ ϕ1 < 2π. La acción de U (1) sobre ℜ4 la definimos como ψ : ℜ4 × U (1) → ℜ4 (x, g) → ψ (x, g) = x · eiϕ , la cual cumple con las propiedades (note que g1 · g2 = eiϕ1 ·eiϕ2 = ei(ϕ1 +ϕ2 ) ). 1.- ψ (x, e) = x · e0 = x 2.- ψ (ψ (x, g1 ) , g2 ) = ψ x · eiϕ1 , g2 = x · eiϕ1 · eiϕ2 =ψ (x, g1 g2 ) 3. HACES FIBRADOS PRINCIPALES 317 Los elementos de B × G = {(x, g) | x ∈ ℜ4 , g ∈ U (1)}. La fibra en un punto iso iϕ ≡ U (1). x0 fijo será Fx0 = x0 · eiϕ ∼ = e π Ejemplo 17.29. Tomemos el haz P −→ S 1 con fibra F = [−1, 1]. Tomemos las cubiertas para el cı́rculo S 1 , U1 = (0, 2π) y U2 = (−π, π) y sean A = (0, π) y B = (π, 2π) en las intersecciones de éstas, A, B ⊂ U1 ∩ U2 . Cada una de estas intersecciones son difeomórficas a S 1 . Tomemos las trivializaciones en A tal que ϕ1 (u) = (θ, t) y ϕ2 (u) = (θ, t). La función de transición para θ ∈ A está dada por g12 (θ) : F → F , t → g12 (θ) (t) = t. En B podemos escoger las trivalizaciones de dos formas ϕ2 (u) = (θ, t) θ∈B I. ϕ1 (u) = (θ, t) ϕ2 (u) = (θ, −t) θ∈B II. ϕ1 (u) = (θ, t) Para el caso I, la función de transición es de nuevo la identidad en F , pero para el caso II la función de transición es g12 (θ) (t) = −t , θ ∈ B. El grupo de estructura en el primer caso consta solo de un elemento G1 = {e}, mientras que el segundo tiene 2 elementos G2 = {e, g}, e:F → F e(b) = t y g:F → F g(t) = −t. iso iso Observen que g 2 = e, por lo que G2 ∼ = S 0 . Si en II reemplazamos = {1, −1} = Z2 ∼ el intervalo F = [−1, 1] por solo los dos puntos F = {−1, 1}, entonces tenemos un haz fibrado principal, con fibra Z2 = {1, −1} = S 0 , el cual es un haz de cı́rculos. El haz I es un cilindro, mientras que el haz II es la banda de Möbius. Gráficamente serı́a S0 | P π ↓ S1 vean la figura 2. Ejemplo 17.30. Otro ejemplo interesante es el haz de Hopf, el cual también es un haz de esferas. Gráficamente es el haz π S1 | S3 ↓ S2 donde S 3 = x ∈ ℜ4 | (x1 )2 + (x2 )2 + (x3 )2 + (x4 )2 = 1 con x = (x1 , x2 , x3 , x4 S 2 = y ∈ ℜ3 x2 + y 2 + z 2 = 1 y = (x, y, z) 318 17. HACES FIBRADOS Figure 2. El cilindro y la cinta de Möbius son haces fibrados principales si sólo se toma a los elementos 1,-1 de la fibra. El cilindro es un haz fibrado trivial mientras que la cinta de Möbius no es trivial. El grupo de estructura y a la vez la fibra son el grupo Z2 . 0 Las esferas pueden ser parametrizadosn utilizando números o complejos como z = 0 2 1 2 1 2 1 3 4 3 x + ix , z = x + ix , ası́ que S = z + z = 1 . La proyección π : S3 → S2 π(x , x , x3 , x4 ) = 2 x1 x3 + x2 x4 , 2 x2 x3 − x1 x4 , (x1 )2 + (x2 )2 − (x3 )2 − (x4 )2 1 2 = (x, y, z) es una proyección. Noten que x2 + y 2 + z 2 = (x1 )2 + (x2 )2 + (x3 )2 + (x4 )2 = 1. Usando la notación del ejemplo 15.7 tenemos que si hacemos Z = W = x + iy z0 x1 + ix2 = 1 y y = (x, y, z) ∈ S 2 \ {N } = UN = 3 4 1−z x + ix z z1 x3 + ix4 x + iy = 0 y ∈ S 2 \ {S} = US = 1 u + iv = 1+z x + ix2 z u + iv = es decir Z = 1/W en US ∩ UN . Las trivializaciones locales las definimos como φN : π −1 (US ) → Us × U (1) 0 z z1 (z 0 , z 1 ) → φS z 0 , z 1 = , z 1 |z 1 | φS : π −1 (UN ) → UN × U (1) 1 z z0 , z 0 , z 1 → φN z 0 , z 1 = z 0 |z 0 | 0 1 En el ecuador z = 0, entonces z = z = √12 . Ahı́ se tiene que las trivializaciones se pueden escribir como 1 0 z √ 0 z √ 1 0 1 0 1 φN z , z = , 2z , φS z , z = , 2z , z1 z0 4. HACES VECTORIALES 319 entonces la función de transición en el ecuador estará dada por z0 gN S x = 1 = x + iy ∈ U (1). − → z En la región UN ∩US todos los puntos son equivalentes al ecuador, ası́ que U (1) será el grupo de estructura, por lo que tenemos un haz fibrado principal. Fı́sicamente, este haz describe un monopolo de carga 1. Otros ejemplos de haces de Hopf son π π S 3 → S 7 → S 4 y S 7 → S 15 → S 8 , aunque en este último S 7 no es un grupo como π S3 ∼ = SU (2). El haz S 3 → S 7 → S 4 puede ser interpretado como el haz de un instantón de carga 1. 4. Haces Vectoriales Al igual que los haces principales, los haces vectoriales son utilizados para describir estructuras fı́sicas. Con los haces vectoriles se pueden representar los sistemas de coordenadas de una variedad, los vectores del espacio tangente, etc. Es por eso de su importancia. Su definición formal es como sigue. Definición 17.31. Un haz vectorial de dimensión n es un haz fibrado donde cada fibra es un espacio vectorial de dimension n. Las funciones de transición forman el grupo GL(n, ℜ). Vean la figura 3. Figure 3. La representación gráfica de un haz vectorial. Para enteder la definición, vamos a ver algunos ejemplos sencillos. Ejemplo 17.32. El cilindro S 1 × ℜ es un haz vectorial trivial mientras que la cinta de Möbius es un haz vectorial no trivial, con fibra ℜ. 320 17. HACES FIBRADOS Ejemplo 17.33. Una variedad con su espacio tangente en cada punto forma un haz vectorial llamado el haz tangente. Sea u ∈ T M = ∪ {p} × Tp M n p∈M un punto en la intersección Ui ∩ Uj tal que π (u) = p ∈ Ui ∩ Uj , donde {Ui } y {Uj } son cubiertas abiertas de M n , varidad. Sean ϕi : Ui → ℜn y ϕj : Uj → ℜn los homeomorfismos de la variedad, tal que ϕi (u) = (x1 , · · · , xn ) y ϕj (u) = 1 n y , · · · , y , son sistemas de coordenadas en cada abierto. Un vector v sobre el espacio tangente Tp M se puede escribir ∂ vp = vpµ = vepµ µ . ∂y p Las trivializaciones locales estarán dadas por φi : π −1 (Ui )| u φj : π −1 (Uj )| u → U i × ℜn → φi (u) = p, vp1 , · · · , vpn → U j × ℜn → φj (u) = p, vp1 , · · · , vpn π (u) = p donde hemos utilizado el isomorfismo natural iso : T M µ ∂ v µ ∂x p , → ℜn → ! µ ∂ = vp1 , · · · , vpN . iso v µ ∂x p Comentario 17.34. Se puede dotar al haz tangente de una estructura diferenciable. v Las funciones v µ y veµ están relacionadas entre si por vpµ = Gµpv vep, dode ∈ GL (n, ℜ) es una transformación lineal de espacios vectoriales. Una construcción totalmente análoga se pude hacer con el espacio cotangente, llamada el haz cotangente . En ambas, las secciones serán campos vectoriales Gµpv v : Ui p → TM ! ∂ → v(p) = p, v µ µ ∂x p o campos de 1-formas w : Ui → T ∗M p → w (p) := (p, wµ dxµ |p ) Ejemplo 17.35. Del ejemplo 15.6 podemos construir el haz vectorial T S 2 . Tenemos (x, y) = (uN , vN ) σN (x, y, z) = 1−z y llamemos (x, y) σS (x, y, z) = = (uS , vS ) . 1+z Ellos están relacionados por v− u− , vN = 2 . uN = 2 uS + vS2 uS + vS2 4. HACES VECTORIALES 321 Si escribimos uS = r cos (θ) y vS = r sin (θ), tenemos que uN = cos (θ) /r, y vN = sin (θ) /r, entonces las trivializaciones estaran dadas por 1 ∂ 2 ∂ = p, vp1 , vp2 , +u |p φN p, v ∂uN ∂vN 2 ∂ 1 ∂ +u e |p = p, e vp1 , vep2 φS p, ve ∂uS ∂vS con la función de transición ∂ (uN , vN ) 1 − cos (2θ) − sin (2θ) gSN = = 2 sin (2θ) − cos (2θ) ∂ (uS , vS ) r Para terminar este capı́tulo, vamos a ver como podemos asociar a cada vector del haz vectorial un vector de ℜn , de esta manera podemos trabajar con la fibra del haz, que de hecho son vectores. Veamos esto. Definición 17.36. Sea ζ = (A, B, πB , F, {Uα }) haz fibrado y η = (P, B, π, G; {Uα } , ψ) un haz principal, ambos con la misma base y grupo de estructura. Se dice que ξ es un haz asociado a η, si las cubiertas {Uα } de ξ y η trivializan tanto a A como a P con las mismas funciones de estructura. Un ejemplo sencillo de la definición anterior es el siguiente. Ejemplo 17.37. Si en el haz tangente asociamos a cada vector base µ ∂ ∂xµ = (0, · · · , 1, · · · , 0), lo que obtenemos es un marco de referencia para cada punto. Este haz es llamado el haz de marcos y es un haz asociado al haz tangente o cotangente. CHAPTER 18 GRUPOS DE LIE Desde el descubrimiento de las teorı́as de norma, los grupo de Lie han tomado una relevancia en todas las areas de la fı́sica, quı́mica y la ingenierı́a. Ya anteriormente se sabia que las simetrias de los problemas conducia a la existencia de grupos actuando en espacios asociados al problema. Esta asociación esta presente también en las teorı́as de norma, en donde un grupo de simetrı́a esta actuando sobre un espacio asociado al problema fı́sico, en este caso esta actuando en el espacio de isoespin. Los grupos de Lie son variedades suaves con estructura de grupo, en analogı́a a los grupos topológicos. En este campı́tulo también vamos a introducir algunos conceptos que vamos a necesitar para la comprención de los grupos de Lie, como es el concepto de campos invariates por la izquierda. 1. Campos Invariantes por la Izquierda La definición de grupos de Lie es como sigue. Definición 18.1. Un grupo de Lie es una terna (G, ·, A) donde (G, ·) es un grupo, (G, A) es una variedad y las funciones. 1) · : G × G → G, (g1 , g2 ) → g1 · g2 2) inv : G → G, g → g −1 son suaves. En general es suficiente con checar que µ:G×G → G (g1 , g2 ) → µ (g1 , g2 ) = g1 · g2−1 i es suave. Un subgrupo de Lie H de G es un grupo en el que H ֒→ G es un encaje, o sea si i y di son inyectivas. Ejemplo 18.2. Uno de los ejemplos mas simples de grupo de Lie es el cı́rculo S 1 . Como ya hemos visto, el cı́rculo es una variedad diferenciable sobre ℜ. Como grupo, podemos asociar a cada punto su representación polar, es decir z = eiθ , de tal forma que x2 + y 2 = z z̄ = 1. Ahora definimos el producto del grupo como z1 z2 = eθ1 +θ2 . Claramente, con esta definición S 1 es un grupo abeliano. Y es un grupo de Lie porque la función µ(z1 , z2 ) = z1 /z2 = e(θ1 −θ2 ) es sueve. Ejemplo 18.3. Un ejemplo que no es un grupo abeliano, es la esfera S 3 . Como ya vimos, podemos parametrizar la esfera S 3 como (x1 )2 + (x2 )2 + (x3 )2 + (x4 )2 = z 0 z̄ 0 + z 1 z̄ 1 = 1, donde z 0 = x1 + ix2 y z 1 = x3 + ix4 . Ahora definamos las matrices 0 z −z 1 U= z1 z0 323 324 18. GRUPOS DE LIE en donde el determinante de ellas esta dado por z 0 z̄ 0 + z 1 z̄ 1 = 1. Ahora definimos el producto en S 3 dado por el producto de matrices. Como el determinante es uno, estas matrices forman un grupo no abeliano. Es decir, con este producto la variedad diferenciable S 3 es un grupo llamado SU (2), el grupo de las matrices unitarias complejas de dos dimensiones. Ejercicio 18.4. Demuestre que el grupo SU (2) es un grupo de Lie con el producto definido en el ejemplo anterior. En lo que sigue veremos algunas estructuras en los grupos de Lie. Iniciaremos con algunas propiedades de las traslaciones derecha e izquierda sobre los grupos. Proposición 18.5. Las traslaciones derecha e izquierda son difeomorfismos. Demostración 18.6. Sea (G, ·, A) grupo de Lie, con Lg : G → G g ′ → Lg (g ′ ) = gg ′ y Rg : G → G g′ → Rg (g ′ ) = g ′ g. Claramente Lg y Rg son suaves con inversas Lg = Lg y Rg−1 = Rg−1 suaves. Para ahorrar espacio, en lo que sigue estudiaremos todas las proposiciones y teoremas ası́ como sus demostraciones solo por la izquierda, las demostraciones por la derecha son completamente análogas. Daremos un pequeño comentario sólo cuando sea necesario, vamos a introducir el concepto de invariante por la izquierda. Definición 18.7. Sea X ∈ T G en donde (G, ·, A) es grupo de Lie. Se dice que X es invariante por la izquierda (por la derecha) ó Lg -invariante (Rg -invariante) si d Lg |g′ (Xg′ ) = Xg′ ◦ L∗g = Xgg′ d Rg |g′ (Xg′ ) = Xg′ ◦ Rg∗ = Xg′ g , para todos g, g ′ ∈ G. La primera consecuencia de esta definición, es que estos vectores quedan determinados si escogemos un solo punto de ellos. En particular se escoge su valor en la identidad, aunque cualquier punto podrı́a ser igual de bueno para esto. Formalmente tenemos. Proposición 18.8. Todo campo vectorial invariante por la izquierda o derecha es determinado por su valor en la identidad. Demostración 18.9. Sea (G, ·, A) grupo de Lie y X ∈ T G invariante por la izquierda. Se cumple d Lg |e (Xe ) = Xg . Análogamente para Rg . De la misma forma, si un vector se puede trasladar por la acción izquierda de ese vector en la identidad, esto implica que el vector es invariante por la izquierda. Veamos esto. Proposición 18.10. Si X ∈ T G en un grupo de Lie y se cumple que Xg = d Lg |e (Xe ) para todo g ∈ G, esto implica que X es invariante por la izquierda (análogamente por la derecha). 1. CAMPOS INVARIANTES POR LA IZQUIERDA 325 Demostración 18.11. Observemos que Lgg′ = Lg ◦ Lg′ , esto implica que dLgg′ = dLg ◦ dLg′ = d Lg |g′ o más especı́ficamente d Lg |g′ (Xg′ ) = d Lg |g′ ◦ d Lg′ |e (Xe ) = d (Lg ◦ Lg′ )|e (Xe ) = d Lgg′ |e (Xe ) = Xgg′ , esto implica que X es invariante por la izquierda (lo mismo por la derecha). De aquı́ en adelante solo consideraremos vectores invariantes por la izquierda o por la derecha. El espacio tangente será un espacio exclisivamente de estos vectores. iso Esto implica que Tα G ∼ = Tg G para todo g ∈ G . De hecho se puede demostrar que para todo grupo de Lie, el haz tangente es un haz trivial, ya que la fibra está formada por vectores invariantes por la izquierda, los cuales están globalmente definidos y estos forman secciones globales en el haz. Un resultado interesante que vamos a usar en este capı́tulo para definir el álgebra de Lie, es que los parentesis de Poisson estan ϕ relacionados si los vectores lo estan. Esto es. Proposición 18.12. Sean (X, Y ) y (X ′ , Y ′ ) ∈ T M m × T N n , M m , N n variedades y ϕ ∈ C ∞ (M m , N n ) tal que X, Y y X ′ , Y ′ están ϕ relacionados. Entonces ([X, X ′ ] , [Y, Y ′ ]) están ϕ-relacionados. Demostración 18.13. Sea f ∈ C ∞ (N, ℜ). Entonces [Y, Y ′ ] (f ) ◦ ϕ pero se cumple que ϕ∗ ◦ Y ∗ = (Y (Y ′ (f )) − Y ′ (Y (f ))) ◦ ϕ = Y (Y ′ (f )) ◦ ϕ − Y ′ (Y (f )) ◦ ϕ = ∗ = X ◦ ϕ∗ , entonces = ϕ∗ (Y (Y ′ (f ))) − ϕ∗ (Y ′ (Y (f ))) = ϕ∗ ◦ Y (Y ′ (f )) − ϕ∗ ◦ Y ′ (Y (f )) = X ◦ ϕ∗ (Y ′ (f )) − X ′ ◦ ϕ∗ (Y (f )) = X (ϕ∗ ◦ Y ′ (F )) − X ′ (ϕ∗ ◦ Y ′ (f )) = X (X ′ ◦ ϕ∗ (f )) − X ′ (X ◦ ϕ∗ (f )) = [X, X ′ ] (f ) ◦ ϕ, entonces [X, X ′ ] está ϕ relacionado con [Y, Y ′ ]. Es decir, si nos limitamos a los vectores del espacio tangente que son ϕ relacionados por la acción izquierda, podemos tener una estructura de álgebra en el espacio tangente del grupo de Lie. A esta álgebra se le conoce como el álgebra de Lie del grupo de Lie. Es decir, en un grupo de Lie, el subespacio del espacio tangente de los vectores asociados por la acción izquieda forman el álgebra de Lie asociada al grupo. Veamos esto formalmente. Corolario 18.14. Los campos invariatens por la izquierda forman una subálgebra G de T G llamada Álgebra de Lie correspondiente al grupo de Lie G. 326 18. GRUPOS DE LIE Esta subálgebra es isomórfica a T eG en cada punto g ∈ G. Se acostumbra tomar el álgebra de Lie G respecto a G como el álgebra de vectores invariantes por la izquierda en la identidad e ∈ G . Si dLg (X) = X y dLg (Y ) = Y , resulta que dLg ([X, Y ]) = [X, Y ]. 2. La Función Exponencial En esta sección vamos a introducir la función exponencial. Esta función mapea elementos del álgebra de Lie al grupo de Lie correspondiente. Sus propiedades nos recuerdan a la función exponencial en ℜ, por eso su nombre. Para poder definir esta función, primero tenemos que introducir algunos conceptos y adaptar conceptos conocidos a los grupos de Lie. Vamos a iniciar con la introducción de un grupo uniparametrico de transformaciones en el grupo de Lie. Para esto vamos a ver primero una proposición que utilizaremos aquı́. Proposición 18.15. Sea (M n , A) variedad diferenciable y F ∈ Dif (M n ). Sea X ∈ T M n y ψ el grupo 1-paramétrico inducido por X. Entonces X es F-invariante ssı́ ψt ◦ F = F ◦ ψt . Demostración 18.16. Xy = ψ̇y (0), (tomando ψy (0) = y) y dF |y (Xy ) = Xy ◦ Fy∗ , donde Xy es el vector tangente al camino ψ̇y en y y dF |y (Xg ) es el vector tangente al camino ψF (y) = F ◦ ψy en F (g). Se tiene que F ◦ ψy (t) = = F ◦ ψt (y) F ◦ ψt ◦ F −1 (F (y)) ⇒) Si X es F-invariante XF (y) = dF |y (Xg ) , esto es ψ̇F (y) (0) = XF (y) por lo tanto ψF (y) (f ) = = ψt ⇐) Si = ψt (F (y)) F ◦ ψt ◦ F −1 (F (y)) , i.e. F ◦ ψt ◦ F −1 ψt = F ◦ ψt ◦ F −1 esto implica que ψF (t) (t) = ψt (F (y)) y esto implica que ψ̇F (y) (0) = XF (y) es decir XF (y) = dF |y (Xg ) Usando la proposición anterior podemos definir la función exponencial. Su definición es como sigue. 2. LA FUNCIÓN EXPONENCIAL 327 Definición 18.17. Sea G grupo de Lie y X ∈ G el álgebra correspondiente a G. Sea ψ el grupo uniparamétrico que induce a X y ψ1 ∈ {ψt }. La función exponencial se define como exp : G X Es decir → G → exp (X) := ψ1 (e) = ψe (1) . ψ :ℜ×G → G (t, g) → ψ (t, g) ; con i) ψ (0, g) = g, ii) ψ (t + s, g) = ψ (t, ψ (s, g)); X = ψ̇e y ψe (0) = e La primera propiedad, la cual nos recuerda una de las propiedades de la exponencial de los reales, es que la exponencial del vector 0, es la identidad en el grupo. Veamos esto. Proposición 18.18. exp (0) = e Demostración 18.19. ψ̇e = 0 implica que ψe (t) = cte ∈ G, pero ψe (0) = e, por lo tanto ψe (t) = e. Entonces exp (0) = ψe (1) = e. El punto interesante ahora, es que con este valor se puede obtener el valor de la exponencial a lo largo de un parametro. Se sigue la proposición: Proposición 18.20. exp (tX) = ψt (e) = ψe (t) Demostración 18.21. Sea ψ̇e (t) = X, vamos a denotar ψe = ψX . Entonces d xi ◦ ψX = X i ◦ ψX dt en las coordenadas locales de G. Probemos primero que ψrX (t) = ψX (rt), i.e. ψ̇rX (t) = (rX) = ψ̇X (rt) lo que implica que d i d i x ◦ ψrX (t) = x ◦ ψX (rt) dt dt i = (rX) ◦ ψrX (t) = rX i ◦ ψX (rt) . Hagamos t′ = rt, se obtiene d d i r ′ xi ◦ ψrX (t) = r x ◦ ψX (t′ ) = rX i ◦ ψX (t′ ) dt dt lo cual es correcto. Entonces exp (tX) = ψtX (1) = ψX (t). De esta última expresión se tiene que d d exp (tX) = ψ̇X (t) = XψX (t) ó exp (tX)|t=0 = Xe dt dt y también exp (tX + sX) = ψX (t + s) = ψX (t) · ψX (s) = exp (sX) exp (tX) . 328 18. GRUPOS DE LIE La propiedad anterior es la que más nos recuerda las propiedades de la exponencial, y es la que usaremos al trabajar con esta función. Para finalizar esta sección, vamos a mencionar más propiedades de la función exponencial que serán utliles, algunas sin demostración. Proposición 18.22. Sea ψ el grupo uniparamétrico inducido por X ∈ G, álgebra correspondiente a G, entonces ψt = Rexp(tX) . Demostración 18.23. ψt (g) = ψt (ge) = ψt ◦ Lg (e) = Lg ◦ ψt (e) = gψt (e) = g exp (tX) = Rexp(tX) (g) . Proposición 18.24. exp: G → G tiene las siguientes propiedades: i) exp es función suave ii) d exp|0 = id|G iii) Si U0 ∈ τG , exp|U0 es inyectiva 3. La representación Adjunta y la Forma de Maurer Cartan. Esta sección la vamos a dedicar a una 1-forma que tiene gran importancia en teorı́as de norma. Esta representación es el campo de norma para una teorı́a basada en algún grupo de Lie, por eso su importancia. Aqui la vamos a introducir solo desde el punto de vista matemático. Para iniciar vamos a ver algunas definiciones que se van a utilizar más adelante. Primero definamos la función Ag . Definición 18.25. Sea g ∈ G grupo de Lie y Ag : G → G g′ → Ag (g ′ ) = gg ′ g −1 Lo interesante de Ag es que es un isomorfismo en el grupo de Lie. Proposición 18.26. Ag ∈ Dif (G) y es un homomorfismo de grupos, es decir es un isomorfismo de grupos de Lie. Demostración 18.27. (Ag )−1 = Ag−1 y ambas Ag y Ag−1 son suaves, por lo tanto Ag ∈ Dif (G). Ag (xy) = g(xy)g −1 = gxg −1 gyg −1 = Ag (x)Ag (y), por lo tanto Ag es un homomorfismo. Comentario 18.28. Observen que Agg′ = Ag ◦ Ag′ para todos gg ′ ∈ G. Para trabajar con los grupos, se utiliza el hecho que estos forman clases de equivalencia, entonces lo más sencillo es trabajar con algun representante de la clase. A este representante lo llamamos asi, un representante del grupo. Formalmente su definición es como sigue. Definición 18.29. Sea V un espacio vectorial, G un grupo de Lie y Gℓ(V ) el conjunto de transformaciones lineales en V invertibles. Una representación de G sobre V es un homomorfismo ϕ : G → Gℓ (V ) del grupo G al grupo (Gℓ (V ) , ◦). Un representante singular es la representación adjunta del grupo, la cual se define con la siguiente proposición. 3. LA REPRESENTACIÓN ADJUNTA Y LA FORMA DE MAURER CARTAN. 329 Proposición 18.30. La función ϕ : G → Gℓ (Te G) g → ϕ (g) := d Ag |e := Adg es una representación de G sobre Te G, llamada la representación adjunta. Demostración 18.31. d Ag |g′ : Tg′ G → Tgg′ g−1 G es un isomorfismo de espacios vectoriales y d Ag |e (ve ) = ve ◦ A∗g es una transformación lineal d Ag |e : Te G → Te G, i.e. d Ag |e ∈ Gℓ (T eG). Además ϕ (gg ′ ) = d Agg′ |e = d (Ag ◦ Ag′ )| |e = d Ag |e=A g′ (e) ◦ d Ag′ |e por lo que ϕ es un homomorfismo de grupos. Por otro lado, vamos a definir lo que es invarianza por la izquierda o por la derecha de una 1-forma sobre el grupo de Lie. Recordemos que sobre el grupo, los vectores interesantes son los vectores invariantes por la izquierda o la derecha, este concepto lo podemos transladar al espacio cotangente de la siguiente forma. Definición 18.32. Sea wg ∈ Tg∗ G, G grupo de Lie. wg es invariante por la izquierda si para todos g, g ′ ∈ G, L∗g g′ (wg′ ) = wg−1 g′ o wg es invariante por la derecha si Rg∗ g′ (wg′ ) = wg′ g−1 . Comentario 18.33. Noten que L∗g g′ : Tg∗′ G → TL∗−1 (g′ ) G = Tg∗−1 g′ G g y Rg∗ g′ : Tg∗′ G → TR∗ −1 (g′ ) G = Tg∗′ g−1 G. g Al igual que los vectores invariantes por la izquierda o derecha, las 1-formas invariantes quedan determinadas por su valor en un punto, donde normalmente se escoge la identidad. Veamos esto. Proposición 18.34. Si w ∈ T G es invariante por la izquierda o por la derecha, entonces w está determinada por su valor en la identidad del grupo. ón 18.35. Sea w ∈ T G invariante por la izquierda, entonces wg = Demostraci ∗ Lg−1 (we ), lo mismo por la derecha. e Ya estamos listos para introducir la forma canónica de Maurer-Cartan. Su definición formal esta dada como sigue. Definición 18.36. Sea G grupo de Lie y G su respectiva álgebra. La forma canónica o de Maurer-Cartan sobre el grupo de Lie G es la 1-forma wg ∈ Tg∗ G ⊗ G, con wg : Tg G → Te G Xg → wg (Xg ) := dLg−1 g (Xg ) . La primera propiedad importante es que la forma de Maurer-Cartan esta determinada por su valor en la identidad. Es decir: 330 18. GRUPOS DE LIE Proposición 18.37. Sea G grupo de Lie y w su forma de Maurer-Cartan. Entonces w es invariante por la izquierda. Demostración 18.38. = wg′ ◦ d Lg |g−1 g′ Xg−1 g′ L∗g g′ (wg′ ) Xg−1 g′ = d Lg′−1 g′ d Lg |g−1 g′ Xg−1 g′ = d Lg′−1 g′ ◦ d Lg |g−1 g′ Xg−1 g′ = d Lg′−1 ◦ Lg g−1 g′ Xg−1 g′ = d Lg′−1 g−1 g′ Xg−1 g′ = wg−1 g′ Xg−1 g′ lo que implica que L∗g g′ (wg′ ) = wg−1 g′ Si la forma de Maurer-Cartan es invariante por la izquierda, cuando se toma la acción derecha de ella, el resultado es una fórmula utilizada mucho en teorı́a de norma. Vamos a ver ésta en la proposición que sigue. Proposición 18.39. Sea G grupo de Lie y w su forma de Maurer-Cartan. Se sigue que: Rg∗ g′ (wg′ ) = Adg−1 ◦ wg′ g−1 Demostración 18.40. (wg′ ) Xg′ g−1 = wg′ ◦ d Rg |g′ g−1 Xg′ g−1 = d Lg′−1 g′ ◦ d Rg |g′ g−1 Xg′ g−1 = d Lg′−1 ◦ Rg g′ g−1 Xg′ g−1 ′−1 = d Lg′−1 ◦ Rg g′ g−1 ◦ d L−1 Xg′ g−1 ◦ L ′−1 gg gg g′ g−1 = d Lg′−1 ◦ Rg g′ g−1 ◦ d Lg−1 ′ g −1 ◦ wg ′ g −1 Xg ′ g −1 e = d L−1 g′ ◦ Rg ◦ Lg′ g−1 ◦ wg′ g−1 Xg′ g−1 e = d Ag−1 e ◦ wg′ g−1 Xg′ g−1 = Adg−1 ◦ wg′ g−1 Xg′ g−1 Rg∗ g′ Para trabajar en una variedad con estructura de grupo, en un grupo de Lie, se procede como sigue. Sean {V1 , · · · , Vn } una base de Te G. Con esta base podemos definir una base a traves de todo el espacio T G usando vectores invariantes por la izquierda. Sea {X1 , · · · , Xn } base de T G, tal que dLg (Vµ ) = Xµ (g) d Lg |e (Vµ ) = Xµ ge y sean θµ ∈ T ∗ G sus duales, es decir, hθµ , Xν i = δνµ . Como [Xµ , Xν ] es también invariante por la izquierda, se cumple que [Xµ , Xν ] = cλµν Xλ donde las cλµν son las constantes de estructura del álgebra de Lie G, correspondiente a G, ya que la cλµν puede ser determinada en e ∈ G. Esto se pude ver usando la 3. LA REPRESENTACIÓN ADJUNTA Y LA FORMA DE MAURER CARTAN. 331 invariacia por la izquierda. dLg ([Xµ , Xν ]) = cλµν Xλ (g) para todo g ∈ G. En particular para e ∈ G, lo que hace que cλµν no depende de g. A las constentes cλµν se les conoce como constantes de estructura del grupo. Estas constantes cumplen con algunas propiedades interesantes que quedaran como ejercicio. Ejercicio 18.41. Demuestren que a) cλµν = cλµν b) cτµν cλτσ + cτσµ cλτν + cτνσ cλτµ = 0, identidad de Jacobi La ecuación fundamental de las 1-formas en el espacio contangente de un grupo de Lie es la que sigue. base Proposición 18.42. Sea G grupo de Lie y {θµ } ⊂ T ∗ G base del espacio contangente de G. Entonces se cumple la ecuación 1 dθµ = − cµνλ θν ∧ θλ 2 donde las cµνλ son las constantes de estructura de G, el álgebra correspondiente a G. Demostración 18.43. Sabemos que dθµ (Xν , Xλ ) = Xν (θµ (Xλ )) − Xλ (θµ (Xν )) − θµ ([Xν , Xλ ]) = Xν (δλµ ) − Xλ (δνµ ) − θµ (cνλ α Xα ) = −cνλ µ se sigue que 1 − cαβ µ θα ∧ θβ (Xν , Xλ ) = −cµνλ 2 Asi mismo, la forma de Maurer-Cartan cumple con la misma ecuación anterior, que se acostumbta escribir de una manera mas elegante. Esta forma la veremos en la siguiente proposición. Proposición 18.44. Sea G grupo de Lie y w su forma de Maurer-Cartan. La forma de Maurer-Cartan w se puede escribir como w = Vν ⊗ θν ; w (g) := wg , iso para toda g ∈ G, donde {Vµ } es la base del espacio tangente de G, Te G ∼ = G; {θµ } base es base del espacio cotangente de G, {θµ } ⊂ T ∗ G y satisface la ecuación 1 dθ + [θ ∧ θ] = 0. 2 Demostración 18.45. Sea Y = Y µ Xµ ∈ Tg G, con Xµ la base invariante por la izquierda de T G, entonces θ (Y ) = = = = Por otro lado Y µ θ (Xµ ) Y µ d Lg−1 g Xµ |g Y µ d Lg−1 g ◦ dLg (Vµ )|e Y µ d Lg−1 ◦ Lg e (Vµ ) = Y µ Vµ Vν ⊗ θν (Y ) = Y µ Vν θµ (Xµ ) = Y µ Vµ . 332 18. GRUPOS DE LIE Observen que [θ ∧ θ] = [Vµ , Vν ] ⊗ θµ ∧ θν , se sigue entonces dθ + 1 1 1 [θ ∧ θ] = − Vµ ⊗ cµνλ θν ∧ θλ + cµνλ Vµ ⊗ θν ∧ θλ = 0 2 2 2 4. Representación de Grupos y Algebras de Lie El espacio de las matrices es el espacio vectorial más apropiado para usarse como representantes de grupos y álgebras. En esta sección veremos los representantes de los grupos más usados en fı́sica, quı́mica e ingenierı́a. Primero vamos a ver la definición formal. Definición 18.46. Sea G un grupo de Lie y H un grupo de Lie de matrices. Una representación de G es un homomorfismo ϕ : G → H. Definición 18.47. Sea G un álgebra de Lie y H un álgebra de Lie de matrices. Una representación de G es un homomorfismo ϕ : G → H Ya en la práctica, por lo general se trabaja con las representaciones matriciales de los grupos o de las álgebras. Vamos a resumir las álgebras y grupos de matrices más importantes. Ejemplo 18.48. Sean GL (n, ℜ) y GL (n, C) los conjuntos de matrices no singulares n×n reales y complejas respectivamente. Estos conjuntos forman un grupo con la multiplicación de matrices. Las coordenadas locales de ellos son las n2 entradas (Xij ) = M ∈ GL, los cuales forman un grupo de Lie de dimensión n2 , real o compleja respectivamente. Topológicamente GL(n, ℜ) es un grupo no compacto, paracompacto y no-conexo. Sea c una trayectoria en GL(n, ℜ), c : (−ǫ, ǫ) →GL (n, ℜ), 2 c (0) = I la identidad en GL(n, ℜ). Cerca de cero c (s) = I + sA + O s , A matriz . dc n × n, real. El vector tangente de c (s) en I es ds = c (s) s=0 = A . Entonces el álgebra correspondiente a GL(n, ℜ) es el conjunto gl (n, ℜ) de matrices reales n × n (singulares o no). Análogamente, el álgebra gl (n, C) correspondiente a GL(n, C) es el conjunto de matrices complejas n × n. Vamos a ver algunos ejemplos de los grupos de Lie más usados en la fı́sica, quı́mica e ingenierı́a. Primero vamos a estudiar ejemplos de subgrupos de GL (n, ℜ) Ejemplo 18.49. O (n) := M ∈ GL (n, ℜ)| M T M = M M T = I llamadas T grupo ortogonal. Una curva en O (n) debe cumplir c (s) c (s) = I, por lo que si T T la diferenciamos obtenemos ċ (s) c (s) + c s ċ (s) = 0. En s = 0 uno obtiene que AT + A = 0. Entonces el álgebra correspondiente a O (n) es o (n), el conjunto de matrices antisimétricas. Ejemplo 18.50. SL (n, ℜ) := {M ∈ GL (n, ℜ)| det M = 1}, llamado el grupo especial lineal . Si c es una trayectoria en SL (n, ℜ) , det c (s) = 1+s tr (A) = 1, o sea tr (A) = 0. Entonces el álgebra correspondiente de SL (n, ℜ) es sl (n, ℜ), el conjunto de matrices con traza cero. La dimensión de este conjunto es dim SL (n, ℜ) = n2 − 1. Ejemplo 18.51. SO (n) = O (n) ∩ SL (n, ℜ), el grupo especial ortogonal, su álgebra correspondiente es también o (n) = so (n). Ambas álgebras tienen di. mensión dim o (n) = n(n−1) 2 4. REPRESENTACIÓN DE GRUPOS Y ALGEBRAS DE LIE 333 Igualmente, los subgrupos de GL (n, C) pueden clasificarse como sigue: Ejemplo 18.52. U (n) = M ∈ GL (n, C)| M M T = M T M = 1 , el grupo unitario. Su álgebra u (n) es el conjunto de matrices complejas antihermitianas AT + A = 0. Ejemplo 18.53. SL (n, C) = {M ∈ GL (n, C)| det M = 1}, el grupo especial lineal complejo, su álgebra sl (n, C) es un conjunto de matrices complejas con tr (A) = 0. Ejemplo 18.54. SU (n) = U (n) ∩ SL (n, C), grupo especial unitario, su álgebra su (n), es el conjunto de matrices complejas antihermitianas con traza cero. Ejercicio 18.55. Demuestren con detalle que las álgebras de U (n), SL(n, C) y SU (n) son respectivamente u(n), sl(n, C) y su(n). Además existen una infinidad de grupos que se clasifican diferente. Veamos algunos ejemplos explicitamente. Ejemplo 18.56. El grupo de Lorentz se define como O (1, 3) = M ∈ GL (4, ℜ) | M γM T = γ, γ = diag (−1, 1, 1, 1) el cual no es compacto, es paracompacto y es no-conexo. Ejercicio 18.57. Encuentren el álgebra de Lorentz correspondiente. Ejemplo 18.58. Los grupos: x −y O (2) = | x2 + y 2 = 1 ; y x hom SO (2) ∼ = (x, y) ∈ ℜ2 | x2 + y 2 = 1 son homomórficos, es decir O (2) = SO (2) y ambos son topológicamente S 1 , que además es una variedad diferenciable. Su álgebra es 0 −a o (2) = | a ∈ ℜ = so(2). a 0 Una base de esta álgebra como espacio vectorial, es 0 −1 o (2) = . 1 0 Ejemplo 18.59. El grupo hom U (1) = SU (1) = {z ∈ C | zz = 1} ∼ = (x, y) ∈ ℜ | x2 + y 2 = zz = 1, z = x + iy . De nuevo U (1) es topológicamente S 1 . Ejemplo 18.60. Como ya vimos anteriormente, el grupo 0 hom z −z1 2 0 0 0 1 1 1 ∼ ∈ C , z | z , z z + z z = 1 SU (2) = = S3, 0 1 z z su correspondiente álgebra esta dada por: c a − ib su (2) = i | a, b, c, ∈ ℜ . a + ib c Una base de esta álgebra 3-dimensional se puede escribir como sigue. 0 1 0 −i 1 0 σ1 = i , σ2 = i , σ3 = i 1 0 i 0 0 −1 334 18. GRUPOS DE LIE Esta base se llama matrices de Pauli, y son la base canónica del álgebra su. Las matrices de Pauli cumplen con las relaciones de conmutación [σ1 , σ2 ] = 2iσ3 , [σ2 , σ3 ] = [σ3 , σ1 ] = 2iσ1 , 2iσ2 . y suelen ser la base del modelo estándar de partı́culas elementales. Ejercicio 18.61. Encuentren una base {σi } del álgebra o(2) y calculen sus constantes de estructura ckij de la relación [σi , σj ] = ckij σk . Ejercicio 18.62. Encuentren una base del espacio tangente del grupo SU (2) y luego su base dual. Con ella construyan sus constantes de estructura. Contruyan una base {σi }i=1,2,3 del álgebra su(2) y calculen también sus constantes de estructura ckij de la relación [σi , σj ] = ckij σk . Busquen una base del álgebra en donde los dos conjuntos de bases de estructura sean iguales. Ejercicio 18.63. Encuentren la forma de Maurer-Cartan para el grupo SU (2) utlilizando la traslación izquierda sobre el grupo y luego calculen la traslación derecha sobre ella. Finalmente apliquen este resultado a un vector del espacio tangente de SU (2). Ejercicio 18.64. Encuentren una base del espacio tangente del grupo de Lorentz y luego su base dual. Con ella construyan sus constantes de estructura. Contruyan una base {σi }i=1,2,3 del álgebra su(2) y calculen también sus constantes de estructura ckij de la relación [σi , σj ] = ckij σk . Busquen una base del álgebra en donde los dos conjuntos de bases de estructura sean iguales. Ejercicio 18.65. Encuentren la forma de Maurer-Cartan para el grupo de Lorentz utlilizando la traslación izquierda sobre el grupo y luego calculen la traslación derecha sobre ella. Finalmente apliquen este resultado a un vector del espacio tangente del grupo de Lorentz. Part 7 APLICACIONES CHAPTER 19 APLICACIONES En este capı́tulo veremos un par de aplicaciones muy interesante de como se puede usar todo el material que hemos aprendido a lo largo de este libro, primero para resolver una clase de ecuaciones diferenciales, no lineales, en derivadas parciales que son de mucha utilidad en fı́sica, quı́mica, ingenierı́a, etc. y segundo de como se pueden entender espacios unificados en muchas dimensiones, geometrizando las teorias de norma. Aquı́ vamos a ver de forma general y genérica como utilizar estos métodos y daremos un ejemplo para un caso sencillo. 1. Ecuaciones Quirales La aplicación a la que nos referimos es la resolución de las ecuaciones quirales1. Estas ecuaciones son la generalización de la ecuación de Laplace para un grupo arbitrario, aquı́ veremos como utilizando nuestro conocimientos de ecuaciones deferenciales, variable compleja, grupos de Lie, etc, podemos resolver estas complicadisimas ecuaciones. El método se llama mapeos armónicos y su poder y elegancia son dignos de dedicarles esta capı́tulo. Las ecuaciones quirales se definen como sigue Definición 19.1. Sea G es un grupo de Lie paracompacto y g ∈ G un mapeo tal que g : C ⊗ C¯ → G g → g(z, z̄) ∈ G, Las ecuaciones quirales para g se definen como (19.1) (αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z = 0 donde α2 = det g Se utiliza que el grupo de Lie sea paracompacto para que podamos garantizar la existencia de una métrica en el espacio correspondiente. Normalmente g(z, z̄) se escribe en una representación matricial de G. Las ecuaciones quirales es un sistema de ecuaciones de segundo orden, en derivadas parciales, no lineales. Si g es solo una función g = eλ , la ecuación quiral se transforma en la ecuación: (19.2) (αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z = (αλ,z ),z̄ + (αλ,z̄ ),z Como veremos mas adelante, la función α = z + z̄. Si hacemos el cambio de variable z = ρ + iζ, la ecuación (19.2) se transforma en (19.3) (ρ λ,ρ ),ρ + (ρ λ,ζ ),ζ = 0 1Este capı́tulo esta basado en el artı́culo Tonatiuh Matos. Exact Solutions of G-invariant Chiral Equations. Math. Notes, 58, (1995), 1178-1182. Se puede ver en: hep-th /9405082 337 338 19. APLICACIONES que es la ecuación de Laplace en coordenadas cilı́ndricas. Si ahora hacemos el √ cambio de variable ρ = r2 − 2m r + σ 2 sin(θ), ζ = (r − m) cos(θ) la ecuación cambia a: (19.4) ((r2 − 2m r + σ 2 )λ,r ),r + 1 (sin(θ)λ,θ ),θ = 0 sin(θ) la cual se reduce para m = σ = 0 a la ecuaciación de Laplace en coordenadas esféricas. La primera propiedad de las ecuaciones quirales es que pueden ser derivadas de una Lagrangiana dada por L = α tr(g,z g −1 g,z̄ g −1 ). (19.5) Esta Lagrangiana representa una teoria topológica cuántica de campo con el grupo de norma G y lo que vamos a hacer en este capı́tulo es estudiar un método para encontrar la forma explı́cita de g ∈ G en términos de las coordenadas z y z̄. Comentario 19.2. Sea Gc un subgrupo de G, es decir, Gc ⊂ G tal que c ∈ Gc implica que c,z = 0 y c,z̄ = 0. Entonces la ecuación (19.1) es invariante bajo la acción izquierda Lc de Gc sobre G. Decimos que las ecuaciones quirales (19.1) son invariantes bajo este grupo. La primera consecuencia importante de las ecuaciones quirales la estudiaremos en la siguiente proposición. Proposición 19.3. La función α = det g es armónica. Demostración 19.4. Vamos a utilizar la fórmula tr(A,x A−1 ) = ln(det A),x . Si tomamos la traza de las ecuaciones quirales (19.1), se obtiene: 0 = tr (αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z = = = (α ln(det g),z ),z̄ + (α ln(det g),z̄ ),z (α ln(α),z ),z̄ + (α ln(α),z̄ ),z 2α,zz̄ lo que implica que α,zz̄ = 0. Las ecuaciones quirales implican la existencia de un superpotencial β que es integrable si las ecuaciones quirales se cumplen. Veamos esto en la siguiente proposición. Proposición 19.5. Sea β una función compleja definida por (19.6) β,z = 1 tr(g,z g −1 )2 , 4(ln α),z g∈G y β,z̄ con z̄ en lugar de z. Si g cumple con las ecuaciones quirales, entonces β es integrable. 1. ECUACIONES QUIRALES 339 Demostración 19.6. Vamos a usar que (g −1 ),x = −g −1 g,x g −1 en lo que sigue. Primero observemos lo siguiente. α 1 (g,z g −1 g,z g −1 ) tr β,zz̄ = 4 α,z ,z̄ 1 1 1 1 = (αg,z g −1 ),z̄ g,z g −1 + αg,z g −1 g,zz̄ g −1 − αg,z g −1 g,z g −1 g,z̄ g −1 tr 4 α,z α,z α,z α,zz̄ −1 −1 − αg,z g g,z g (α,z )2 1 1 tr (αg,z g −1 ),z̄ + α g,zz̄ g −1 − αg,z g −1 g,z̄ g −1 g,z g −1 = 4 α,z 1 1 tr (αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z − α,z g,z̄ g −1 g,z g −1 = 4 α,z ya que las matrices dentro de la traza pueden conmutarse sin afectar el resultado. Si las ecuaciones chirales se cumplen para g, finalmente obtenemos: 1 β,zz̄ = − tr g,z̄ g −1 g,z g −1 4 Lo cual implica que β,zz̄ = β,z̄z Ahora vamos a construir el método de solución. Sea G el álgebra correspondiente del grupo de Lie G. Ya sabemos que la forma de Maurer-Cartan ωg en G, definda por ωg = Lg−1∗ (g), es una 1-forma sobre G, que toma valores en G, es decir ωg ∈ Tg∗ G ⊗ G Vamos a definir un mapeo sobre G. Definición 19.7. Se definen los mapeos Az y Az̄ del grupo de Lie a su algebra correspondiente, dados por Az : G ⇀ G g ⇀ Az (g) = g,z g −1 Az̄ : G ⇀ G g ⇀ Az̄ (g) = g,z̄ g −1 Si g es una representación de grupo G, entonces la 1-forma de Marure-Cartan ω(g) = ωg la podemos escribir como: (19.7) ω = Az dz + Az̄ dz̄ Usando el hecho de que ωg se puede escribir como en (19.7), vamos a definir una métrica en el espacio tangente de G, es decir sobre G. Definición 19.8. El tensor (19.8) l = tr(dgg −1 ⊗ dgg −1 ) sobre G define una métrica sobre el haz tangente de G. Con la definición de una métrica en G podemos definir las conexión y el tensor de curvatura correspondientes. En particular la métrica (19.8) define la derivada covariante. Particularmente, las matrices Az (g) y Az̄ (g) su derviada covariante cumple una relación muy interesante, la cual veremos en el siguiente lema. 340 19. APLICACIONES Lema 19.9. Sea G grupo de Lie y las matrices Az (g) y Az̄ (g) definidas como en la definición 19.7 y l la métrica (19.8), con derivada covariante ∇. Entonces ∇a Ab − ∇b Aa = [Ab , Aa ] (19.9) Demostración 19.10. De la definición de Aa (g) = g,a g −1 , se tiene ∇a Ab − ∇b Aa = = = = Ab,a − Aa,b − Γcab Ac + Γcba Ac (gb g −1 ),a − (ga g −1 ),b g,ab g −1 − g,a g −1 g,b g −1 − g,ba g −1 + g,b g −1 g,a g −1 Ab Aa − Aa Ab Vale la pena definir el concepto de espacio simétrico en este punto. Definición 19.11. Sea M una variedad paracompacta con métrica l. Se dice que el espacio M es simétrico si el tensor de Riemman R derivado de l cumple con ∇R = 0 donde ∇ es la derivada covariante de M compatible con l Con esto ya estamos listos para demostrar el siguiente teorema. Teorema 19.12. La subvariedad de soluciones de las ecuaciones quirales S ⊂ G es una variedad simétrica con métrica dada por (19.8) Demostración 19.13. Solo vamos a dar una guı́a de la demostración. Vamos a tomar la parametrización λa a = 1, · · · n, sobre G. El conjunto {λa } es un sistema coordenado de la variedad G n-dimensional. En términos de esta parametrización, la forma de Maurer-Cartan ω puede escribirse como: (19.10) ω = Aa dλa , donde Aa (g) = ( ∂λ∂ a g)g −1 . Entonces las ecuaciones quirales pueden ser escritas como (19.11) ∇b Aa (g) + ∇a Ab (g) = 0, donde ∇a es la derivada covariante definida por (19.8), es decir (19.12) ∇a Ab = Ab,a − Γcab Ac Claramente la ecuación (19.11) se sigue, ya que los coeficientes de conexión son simétricos. Observemos que (19.13) l = tr[Aa (g) Ab (g)] dλa ⊗ dλb , entonces los coeficientes métricos estan dados por gab = tr[Aa (g) Ab (g)]. Usemos la ecuación (19.9) en (19.11), de aqui se infiere la realción 1 [Aa , Ab ](g). 2 De (19.13) podemos calcular la curvatura de Riemann R. Se obtiene (19.14) ∇b Aa (g) = (19.15) Rabcd = 1 tr(A[a Ab] A[c Ad] ) 4 1. ECUACIONES QUIRALES 341 donde [a, b] significa conmutación de los ı́ndices. Esto es posible gracias a que G es un espacio paracompacto. De aquı́ se sigue que ∇R = 0 Ya estamos listos para explicar el método para encontrar campos quirales explicitamente. Sea Vp una subvariedad de G y {λi } i = 1, · · · , p coordenadas locales totalmente geodésicas sobre Vp . La variedad G es conocida, entonces podemos conocer a la subvariedad Vp . De hecho, Vp es un subgrupo de G y Vp es también simétrico. Las simétrias de G y Vp también son isometrias, ya que ambos son paracompactos y la métrica Riemanniana (19.13) y i∗ l respectivamente, donde i es la restricción de Vp sobre G heredan estas isometrias. Supongamos que Vp tiene d isometrias, entoces se sigue que: X (19.16) (αλi,z ),z̄ + (αλi,z̄ ),z + 2α Γijk λj,z λk,z̄ = 0 ijk donde i, j, k = 1, · · · , p, Γijk son los sı́mbolos de Christoffel de i∗ l y λi son parámetros totalmente geodésicos sobre Vp . En términos de los parámetros λi las ecuaciones quirales se pueden escribir como: ∇i Aj (g) + ∇j Ai (g) = 0 (19.17) donde ∇i es la derivada covariante sobre Vp . La ecuación (19.17) es la ecuación de Killing sobre Vp para las componentes de Ai . Puesto que conocemos de hecho a Vp , conocemos sus isometrias y por tanto conocemos sus vectores de Killing. Sea ξs , s = 1, · · · , d, una base del espacio de los vectores de Killing de Vp y Γs una base de la subalgebra correspondiente al espacio Vp . Entonces podemos escribir: X (19.18) Ai (g) = ξsi Γs s donde ξs = P j ∂ j ξs ∂λj y la derivada covariante de Vp esta dada por 1 ∇j Ai (g) = − [Ai, Aj ](g) 2 Las matrices Ai cumplen con la condición de integrabilidad Fij (g) = 0, donde (19.19) (19.20) Fij = ∇j Ai − ∇i Aj − [Aj, Ai ] es decir, las Ai son puramente una norma. La acción izquierda de Gc sobre G, dada por L : Gc ⊗ G → G preserva las propiedades de los elemetos de S. Conocidos los vectores {ξs } y {Γs } uno puede integrar los elementos de S, puesto que los Ai (g) ∈ G pueden ser mapeados de regreso al grupo G utilizando el mapeo exponencial. Sin embargo, no es posible mapear todos los elementos uno por uno, pero podemos hacer uso de la siguiente proposición. Proposición 19.14. La relación Aci ∼ Ai ssi existe c ∈ Gc tal que Ac = A◦ Lc , es relación de equivalencia. Ejercicio 19.15. Demostrar la proposición anterior. 342 19. APLICACIONES Esta relación de equivalencia separa el conjuto {Ai } en clases que llamaremos [Ai ]. Sea T B un conjunto de representantes de cada clase, es decir T B = {[Ai ]}. Podemos mapear el conjunto T B ⊂ G al subgrupo S por medio del mapeo exponcial o por integración directa. Vamos a definir B como el conjunto de elmentos del grupo mapeado por cada representante de las clases, es decir B = {g ∈ S | g = exp(Ai ), Ai ∈ T B} ⊂ G. Los elementos de B son a su vez elementos de S porque las Ai cumplen con las ecuaciones quirales i.e.B ⊂ S. Para construir el conjunto completo S podemos seguir el siguiente teorema. Teorema 19.16. (S, B, π, Gc , L) es un haz fribrado principal con proyección π(Lc (g)) = g donde L(c, g) = Lc (g). Demostración 19.17. Las fibras de G son las orbitas del grupo Gc sobre G, Fg = {g ′ ∈ G | g ′ = Lc (g)} para algún g ∈ B. La topologı́a de B es su topologı́a relativa con respecto a G. Sea αF el espacio fibrado αF = (Gc × Uα, Uα , π), donde {Uα } es una cubierta abierta de B. Tenemos el siguiente lema. Lema 19.18. El espacio fibrado αF y α = (π −1 (Uα ), Uα, π|π−1 (Ua ) ) son isomórficos. Demostración 19.19. El mapeo ψα : φ−1 (Uα ) = {g ∈ S | g ′ = Lc (g), g ∈ Uα }c∈Gc g′ → Gc × Uα → ψα (g ′ ) = (c, g) es un homeomorfismo y π|π−1 (Uα ) (g ′ ) = g = π2 ◦ ψα (g ′ ). Por el lema 19.18 se sigue que el haz fibrado α es localmente trivial. Para terminar la demostración del teorema es suficiente con probar que los espacios Gc , (S, Gc , L) y (Gc × Uα, Gc, δ) son isomorficos. Pero esto es cierto ya que es un isomofirmo. δ ◦ id|Gc × ψα = ψα ◦ L|Gc ×π−1 (Uα ) Usando este teorema es ya posible explicar el método que queremos estudiar. Algoritmo 19.20. . a) Dadas las ecuaciones quirales (19.1), invariantes bajo el grupo de Lie G, escojan un espacio Riemannian simétrico Vp con d vectores de Killing, tal que p ≤ n = dim G. b) Encuentren una representación del álgebra de Lie correspondiente G compatible con la relación de conmutación de los vectores de Killing, via la ecuacion (19.19). c) Escriban las matrices Ai (g) explicitamente en términos de los parametros geodésicos del espacio simétrico Vp . d) Usen la proposición 19.14 para escoger las clases de equivalencia de {Ai } y escogan un conjunto de representates e) Mapen los representantes del álgebra de Lie al grupo correspondiente. Las soluciones se pueden contruir usando la acción izquierda del grupo Gc sobre el grupo G. Este método quedará mas claro viendo un ejemplo. 1. ECUACIONES QUIRALES 343 Ejemplo 19.21. Vamos a tomar el grupo de Lie G = SL(2, R) y vamos a seguir el método paso por paso. a) Escogemos que V1 es el espacio unidimensional tal que i∗ l = dλ2 . Este espacio es claramente un espacio Riemanniano simétrico con un vector de Killing. b) El álgebra de Lie correspondiente es sl(2, R) y es el conjunto de matrices reales 2×2 con traza cero. La ecuación de Killing se reduce a la ecuacion de Laplace (19.2). c) Usando la ecuación (19.19), obtenemos que g,λ g −1 = A = constant. d) Los representantes del conjunto de matrices reales 2 × 2 con traza cero {Ai } estan dados por: 0 1 {[Ai ]} = a 0 e) El mapeo de los representantes del álgebra de Lie al grupo se puede llevar a cabo por la integración de la ecuacion diferencial matricial g,λ = [Ai ]g. Las soluciones dependen del polinomio caracteristico de [Ai ]. Se obtienen tres casos: a > 0, a < 0 y a = 0. Para cada caso la matriz g se obtiene: Para a > 0 1 a 1 −a aλ (19.21) g=b e +c e−aλ , a a2 −a a2 donde 4bca2 = 1 Para a < 0 (19.22) g=b cos(aλ + ψ0 ) −a sin(aλ + ψ0 ) −a sin(aλ + ψ0 ) −a2 cos(aλ + ψ0 ) donde a2 b2 = −1 Y para a = 0 se tiene (19.23) g= bλ + c b b 0 , con b2 = −1, a, b, c y ψ0 son constantes. Ası́ que para cada solución λ de la ecuación de Laplace (19.2) se tendrá una solución de la ecuacion quiral. La acción izquierda del grupo SLc (2, R) sobre SL(2, R) se representa como g ′ = CgD, donde C, D ∈ SLc (2, R). g ′ va a ser también una solución de las ecuaciones quirales (19.1). Ejemplo 19.22. Si ahora escogemos una variedad V2 podemos obtener otra clase de soluciones de las ecuaciones quirales para el mismo grupo. Todos las variedades dos dimensionales V2 son conformalmente planas. Sean λ y τ dos parametros del espacio V2 , ası́ que la métrica más general que podemos escribir para este espacio es dτ dλ dl2 = (l + kλz)2 344 19. APLICACIONES Pero que V2 se simétrica implica que k es una constante. Un espacio V2 con curvatura constante tiene tres vectores de Killing. Sean 1 [(kτ 2 + 1)dλ + (kλ + 1)dτ ] ξ1 = 2V 2 1 ξ2 = [−τ dλ + λdτ ] V2 1 [(kτ 2 − 1)dλ + (1 − kλ2 )dτ ] ξ3 = 2V 2 donde V = 1 + kλτ , una base de los vectores de Killing de V2 . Las relaciones de conmutación para estos tres vectores de Killing son: 1 2 = −4kΓ3 , Γ ,Γ 2 3 = 4kΓ2 , Γ ,Γ 3 1 (19.24) = −4Γ2 Γ ,Γ Pero para obtener las relaciones de conmutación de sl(2, R) tenemos que poner k = −1. Una representación compatible del grupo sl(2, R) con las reglas de conmutación (19.24) son las matrices: −1 0 0 b 0 −b 1 2 3 Γ =2 , Γ = , Γ = 0 1 a 0 a 0 donde ab = 1. Entoces las ecuaciones (19.18) quedan 2 1 τ −1 −1 g,λ g = Aλ = 2 −a(1 + τ )2 V 2 1 λ −1 g,τ g −1 = Aτ = 2 −a(1 + λ)2 V como: b(1 − τ )2 1 − τ2 b(1 − λ)2 1 − λ2 Integrando estas ecuaciones encontramos finalmente 1 c(1 − λ)(1 − τ ) e(τ − λ) (19.25) g= e(τ − λ) d(1 + λ)(1 + τ ) 1 − λτ donde cd = −e2 , a = e c y b = − de . Para la ecuación armónica se obtiene 4τ αλ,z λ,z̄ = 0 1 + λτ 4λ (ατ,z ),z̄ + (ατ,z̄ ),z + (19.26) ατ,z τ,z̄ = 0 1 + λτ Igualmente como antes, para cada solución de las ecuaciones (19.26) en la ecuación (19.25) se obtiene una solución distinta para las ecuaciones quirales para el grupo SL(2, R). (αλ,z ),z̄ + (αλ,z̄ ),z + 2. Geometrización de Teorias de Norma En esta sección2 veremos como geometrizar las teorias de norma y como usando un espacio con mas dimensiones de las cuatro conocidas es posible unificar todas las interacciones de la naturaleza. El problema que tienen estas teorias es que, como la relatividad general, no pueden ser cuantizadas con las técnicas conocidas. El problema es más profundo de lo que parece, pues algunas teorias de norma si se 2Una versión completa de esta sección se encuentra en Tonatiuh Matos and Antonio Nieto. Topics on Kaluza-Klein Theories. Rev. Mex. Fs. 39, (1993), S81-S131 2. GEOMETRIZACIÓN DE TEORIAS DE NORMA 345 pueden cuantizar, las teorias geométricas no. La razon puede ser la forma en que cada teoria entiende las interacciones de la naturaleza. Mientras que la interacción es un concepto puramente geométrico en la relatividad general y en las teorias geomt́ricas de unificación, en teoria de norma la interacción entre partı́culas se da por medio de intercambio de partı́culas virtuales. Es posible que mientras no haya un concepto unificado de como debe entenderse la interacción en la naturaleza, no va a haber una teoria unificada de todas las fuerzas. Aquı́ nos vamos a concentrar en las teorias geométricas de unificacón. Como veremos, la unificación de todas las interacciones requiere de la matemática estudiada en estes libro. La razon de estudiarla es puramente académico y no tiene un sentido fı́sico necesariamente. A estas teorias geométricas de unificación se les llama también teorias de KaluzaKlein, por ser ellos los primeros en proponerlas. Vamos a iniciar viendo como es posible geometrizar las teorias de norma. El principio fundamental de la teoria general de la relatividad de Einstein es que las interacciones gravitacionales son producto de la geometria del espacio-tiempo. La materia le dicta al espacio-tiempo como curvarse, mientras que el espacio tiempo determina la dinámica de la materia. Por supuesto queda abierta la pregunta si todas las demás interacciones de la naturaleza también son geométricas. Estas interacciones son modeladas con las teorias de norma. En principio uno puede geometrizar las teorias de norma observando el principio de acoplamiento mı́nimo. Este principio consite en substituir el momento de una partı́cula pµ , con el momento pµ ⇀ pµ + eAaµ ta , (19.27) donde las Aaµ son los potenciales de Yang-Mills y ta ∈ G, es la base del espacio tangente a G, el grupo de invariancia de la teoria de norma. En un sistema coordenado, esto se puede interpretar como cambiar las derivadas parciales en el sistema por la derivada coovariante Dµ = ∂µ + eAaµ ta en un espacio interno o espacio de isoespin. Sin embargo, lo que definimos es una conexión en este espacio interno, donde se cumple una relación de conmutación para la derivada covariante dada por: (19.28) donde las funciones Fµν = (19.29) [Dµ , Dν ] = −eFµν a Fµν ta estan dadas por: a a b c Fµν = ∂µ Aaν − ∂ν Aaµ + efbc Aµ Aν a donde las constantes fbc son las constantes de estructura del álgebra G, es decir a [tb , tc ] = fbc ta Con esta conexión podemos definir la curvatura del espacio. La diferencia aqui es que el espacio interno no necesariamente tiene una métrica y la conexión Aaµ es diferente a los sı́mbolos de Christoffel. Sea P el haz fibrado principal (P, B 4 , π, G, U, ψ), o graficamente dado por: G ↓ P ↓π B4 con conexión ω y cuya fibra es un grupo paracompacto G y su base es un espacio Riemanniano cuatro dimensional, vean la figura 1 346 19. APLICACIONES Figure 1. El haz fibrado principal P , invariante ante el grupo (la fibra) G y base el espacio tiempo plano B 4 . σ es una sección cruzada del haz, π es la proyección y ϕ es una trivialización, compatible con σ. Esta definición induce una métrica en P , ya que las hipótesis anteriores separan el espacio en una parte vertical, dada por el grupo G y otra horizontal, determinada por la sección cruzada σ. Ası́ la métrica sobre P puede ser definida como (19.30) ĝ(Ûv , V̂v ) = g̃(Ûv , V̂v ) ĝ(ÛH , V̂v ) = 0 ĝ(ÛH , V̂H ) = g(dπ(ÛH ), dπ(V̂H )) donde g̃, g y ĝ son las métricas sobre G, sobre el espacio base B 4 y sobre P , respectivamente. Si {ω̂ A } es una base de las 1-formas definidas sobre P , la métrica (19.30) puede ser escrita como (19.31) ĝ = gαβ ω̂ α ⊗ ω̂ β + Iab ω̂ a ⊗ ω̂ b , la cual es definida sobre todo P . Vamos a escribir la métrica ĝ en coordenadas locales. P es un haz fibrado y por tanto es localmente un producto cartesiano de un conjunto abierto U ∈ B 4 con la fibra G. Es decir, como ya vimos, existe un homeomorfismo ϕ, llamado la trivialización de P tal que ϕ:P → U ×G x → (b, g) con b ∈ U ⊂ B 4 y g ∈ G. Sea {êa } una base del espacio tangente vertical de P y {êα } la base del espacio complemento, el espacio horizontal, en nuestro caso de cuatro dimensiones. Por definición, las proyecciones de los vectores base están dadas por: (19.32) dπ(êα ) dπ(êa ) = eα = 0 donde {eα } es una base del espacio tangente del espacio base U . 2. GEOMETRIZACIÓN DE TEORIAS DE NORMA 347 Ahora vamos a proyectar los vectores base {êα } y {êa } al espacio tangente de U × G usando la trivialización. La proyeccón de U × G sobre U es una proyección canónica dada por π1 : U × G → U, (x, a) → x de tal forma que π = π1 ◦ ϕ (19.33) Tomemos la proyección de {êα , êa } a T (U × G) tal que Bαβ eα − Am α em dϕ(êα ) = (19.34) Caβ eβ + Dam em dϕ(êa ) = donde {em } es una base invariante por la derecha del espacio tangente de G, tal que {eα , em } es una base del espacio tangente de U × G. Pero de la ecuación (19.33) tenemos: dπ(êα ) = (19.35) ϕ(êa ) = dπ1 ◦ dϕ(êα ) = Bαβ eβ = eα dπ1 ◦ dϕ(êa ) = Caβ eβ = 0 i.e. Bαβ = δαβ y Caβ = 0. El conjunto dϕ(êa ) = Dam em es una base del espacio tangente de G, el cual podemos reescribir simplemente como Dam em → ea . Entonces obtenemos. (19.36) (19.37) dϕ(êα ) = dϕ(êa ) = eα − Am α em ea . De (19.37) es sencillo obtener la base del espacio contangente correspondiente, esta es: eα − Am α em ēA = (19.38) em α ω A (19.39) ω̄ = ω a + Aaα ω α donde {ω β } es la base dual de {eα } y {ω m } es la base dual de {em }. Con esta base ya podemos escribir la métrica ḡ del haz P en la trivialización U , obtenemos (19.40) β ḡ = gαβ ω α ⊗ ω β + Inm (ω n + Anα ω α ) ⊗ (ω m + Am β ω ) También podemos escribir la métrica (19.40) en un sistema coordenado, por ejemplo, sea (19.41) ωα = dxα n ω Aaα = = dxn ekBαa Iab = g̃ab obtenemos (19.42) ḡ = gαβ dxα ⊗ dxβ + gnm (dxn + ekBαn ω α ) ⊗ (dxm + ekBβm ω β ) 348 19. APLICACIONES la cual se conoce como la métrica de Kaluza-Klein. A diferencia de la métrica original la cual fue postulada utilizando muchas hipótesis, esta es solo una construcción siguiendo la filosofı́a de las teorias de norma. Para obterner ĝ vamos a calcular el pull-back de ϕ, el cual esta dado por ϕ∗ (X) = Xα ω̂ α + Xn (ω̂ n − Anβ ω̂ β )|ϕ−1 (19.43) Entonces el pull-back de la base del espacio contangente de U × G es ϕ∗ (ω α ) = ω̂ α , (19.44) ϕ∗ (ω a + Aaα ω α ) = ω̂ a de donde obtenemos (19.45) ĝ = ϕ∗ ḡ = gαβ ω̂ α ⊗ ω̂ β + Imn ω̂ n ⊗ ω̂ m |ϕ−1 i.e. (19.31). Es claro que g = gαβ ω α ⊗ω β es una métrica de B 4 y g̃ = Inm ω n ⊗ω n es una métrica de G. Finalmente vamos a ver que las componentes Aaβ ω β ta pertenecen a la conexión del haz P proyectada en B 4 . Para hacer esto, recordemos que la 1forma de coneccón ω ası́gna un cero a los vectores horizontales y un elemento del algebra de Lie correspondiente a los vectores verticales. Podemos escribir ω como ω = ω̂ a ta (19.46) Esto es ası́, ya que (19.47) ω(êα ) = ω̂ a (êα )ta = 0 ω(êb ) = ω̂ a (êb )ta = δba ta = tb . Con este resultado ya podemos proyectar la conexión ω de P a U ⊂ B 4 . Para hacer esto, definimos una sección cruzada usando la trivialización ϕ ¯ :U ⇀P (19.48) σ = ϕ−1 ◦ Id ¯ es la función identidad definida por donde Id ¯ : U → U × G, (19.49) Id (19.50) x → (x, e) con e es la identidad en G. Entonces el pull-back de σ aplicado a ω esta dado por (vean la ecuación (19.44)) ¯∗ ◦ ϕ−1∗ )(ω̂ a ta ) σ ∗ (ω) = (Id (19.51) ¯ ∗ ((ω a + Aa ω β )ta ) = Aa ω β ta = Id β β esto es, A = Aaβ ω β ta es la proyección de la 1-forma de conexión hacia U y representa el potencial de Yang-Mills en U . Ejemplo 19.23. Vamos a construir el haz fibrado principal G ↓ P ↓π M4 en donde M 4 es el espacio tiempo plano, vean la figura 2. Este haz fibrado tiene por fibra al grupo G. Ahi construimos la conexión del haz utilizando las ideas anteriores. En un haz fibrado principal P , la conexión define a 2. GEOMETRIZACIÓN DE TEORIAS DE NORMA 349 Figure 2. El haz fibrado principal P , invariante ante el grupo (la fibra) G y base el espacio tiempo plano M 4 . σ es una sección cruzada del haz. la 1-forma Maurer-Cartan ω tomando valores en el álgebra de Lie G correspondiente a G. Toda teoria de norma esta basada en un grupo de Lie G. La teria de norma más representativa es tal vez aquella basada en el grupo G = SU (2). Existe una relación directa entre los elementos del álgebra de Lie y los elementos del espacio tangente de G. Para SU (2) esta relación esta dada por los vectores base ∂ ∂ z −y ∂y ∂z ∂ ∂ −z x ∂z ∂z (19.52) ∂ ∂ y −x ∂y ∂y 0 0 0 ⇀ 0 0 1 0 −1 0 0 0 −1 ⇀ 0 0 0 1 0 0 0 1 0 ⇀ −1 0 0 0 0 0 La 1-forma ω de Maurer-Cartan se define con la relación (19.52) y la asociación de las matrices del álgebra correspondiente de P en cada punto p ∈ P . El punto crucial aqui es la proyección de la 1-forma ω al espacio base. Para hacer esto, tomemos una sección cruzada σ en P , vean la figura 2. Con σ podemos proyectar la 1-forma de conexión al espacio base (19.53) A = σ∗ ω 350 19. APLICACIONES Otra sección cruzada σ1 , por supuesto, definira otra proyeccón de la conexión ′ A = σ1∗ ω pero la relación entre A y A′ la obtenemos del siguiente teorema ′ Teorema 19.24. Sean A = σ ∗ ω y A = σ1∗ ω las conexiones derivadas de las secciones cruzadas σ ∗ y σ1∗ , en un haz fibrado principal P , con grupo de estructura G. Entonces ′ A = aAa−1 + ada−1 (19.54) donde a es un elemento de transición de G. Esta es una relación bien conocida en teorias de norma. Por ejemplo, para el grupo G = U (1), que topologicamente es U (1) = S 1 , se tiene que un elemento de S 1 puede ser escrito como a = eiϕ , entonces (19.55) ′ A = eiϕ A e−iϕ − eiϕ de−iϕ = A + dϕ. O escrito en componentes (19.56) ′ Aµ = Aµ + ∂µ ϕ, que es justamente la relación de norma del campo electromagnético. Es más, podemos escribir la 1-forma de conexión en general como: (19.57) ω = a−1 Aa + a−1 da Por supuesto, bajo la acción derecha del grupo a ⇀ a′ = ab sobre las fibras de P , ω queda invariante ω = a′−1 Aa′ + a′−1 da′ La curvatura se puede obtener de la relación Ω = dω + ω ∧ ω = a−1 Ba donde 1 a B ta dxµ ∧ dxν 2 µν Naturalmente Ω obedece las identidades de Bianchi (19.58) (19.59) B = dA + A ∧ A = dΩ + ω ∧ Ω − Ω ∧ ω = 0. Ejemplo 19.25. Vamos a recordar rápidamente como se ve una solución de las ecuaciones de norma invariantes ante el grupo U (1), el cual es, como ya vimos, topológicamente el cı́rculo. El haz fibrado aquı́ consiste en una esfere S 2 cubierta con una conexión invariante ante U (1), dada por A+ = A− + dϕ. Como vimos antes, una solución de las ecuaciones de Maxwell sobre la esfera S 2 esta dada por 1 A± = [±1 − cos(θ)]dϕ 2 que representa el monopolo de Dirac. La curvatura de esta conexión es 1 (19.60) F = dA± = sin(θ)dθ ∧ dϕ. 2 2. GEOMETRIZACIÓN DE TEORIAS DE NORMA 351 Ejemplo 19.26. Otro ejemplo interesante es el instanton, el cual es la conexión en un un haz fibrado SU (2) ↓ P (19.61) ↓π S4 Anque esta construcción no tiene que ver con fı́sica, es solo una construcción matemática. Por otro lado, se pueden construir a las teorias de Yang-Mills con el formalismo de haces fibrados, en este caso la fibra es el grupo de invariancia y la base el grupo 0(3, 1) o el grupo de Lorentz. Pero también se pueden construir las teorias de YangMills usando una base curva arbitraria. En lo que sigue de este capı́tulo vamos a hacer esto. Esto demuestra que el llamado ansatz de Kaluza-Klein no es necesariamente un ansatz, sino la generalización natural de la teoria de norma a espacios curvos. Sin embargo, algunos puntos deben de tomarse en cuenta. Comentario 19.27. La descomposición (19.30) o (19.31) puede ser hecha solo si ĝ es invariante ante el grupo G. Pero también podemos tomar el grupo cociente G/H, donde H es un grupo normal de G. Por ejemplo, si G = SU (3) × SU (2) × U (1), el grupo máximo normal de G es el grupo H = SU (2) × U (1) × U (1), ası́ que como la dimensión de G es 12 y la dimensión de H es 7, la dimensión mı́nima de P para tener la métrica ĝ invariante ante el grupo SU (3) × SU (2) × U (1) es 7 + 4 = 11. Este parece ser un número mágico, pues es la dimensión de la teoria M y de supergravedad. Comentario 19.28. No hay un tratamiento mecánico cuántico de las teorias de Kaluza-Klein, como no lo hay tampoco de la relatividad general. Pero al incorporar partı́culas del grupo SU (2), estas partı́culas necesariamente son cuánticas y por tanto el tratatamiento mostrado aquı́ no puede explicarse a esas partı́culas. Pero la contradicción es más profunda, pues si el campo gravitatorio son realmente las componentes de la métrica del espacio tiempo, entonces la cuantización de este espacio implicarı́a que éste es discreto. Pero para tener métrica deberı́a ser un espacio T2 , de Haussdorff. Por tanto, un espacio discreto no puede tener métrica. La pregunta que queda abierta es por supuesto si estamos interpretando bien las interacciones de partı́culas a nivel cuántico o si la interpretación geométrica mostrada aquı́ es la correcta. Ojala que algún lector de este libro nos de algun dı́a la respuesta. CHAPTER 20 Indice Analitico A Absolutamente convergente Acotado por arriba Acotado por abajo Actúa por la derecha Acción Efectiva Acción Libre Acción Transitiva Álgebra Álgebra tensorial Álgebra de Lie Álgebra sobre un conjunto Anillo Anillo de los enteros Anillo de los reales Anillo conmutativo Anillo con unidad Anillo sin divisores de cero Anillo cociente Anillo ideal Argumento Atlas Atlas equivalentes Automorfismo B Base Base coordenada Biyectiva Bola C Camino Camino constante Campocombinacion lineal Campo de norma 353 354 20. INDICE ANALITICO Campo ordenado Carta Cartas Cartas compatibles Cerradura lineal Clase de equivalencia Clausura Celula de Jordan Cerradura lineal Codiferencial exterior Coeficientes de Fourier Cofactores de una matriz Compactificación por un punto Compactificación Composición de mapeos Composición Complejo conjugado Complemento ortogonal Concatenación Conceptos locales Condiciones de Cauchy-Riemann Conjunto abierto Conjunto cociente Conjunto compacto Conjunto complementario Conjunto complemento Conjunto denso Conjunto denso Conjuntos de Borel Conjunto de las funciones trigonométricas Conjunto de funciones suaves Conjunto diferencia Conjunto parcialmente ordenado Conjunto potencia Conjunto universo Conjunto vacio Conexión Constantes de estructura Converge Convolución Coordenadas nulas Coordenadas hiporbólicas Cota superior Cota inferior Criterio de comparación Cuadraturas Cubierta Curva 20. INDICE ANALITICO Curva integral de un vector D Delta de Dirac Delta de Kronecker Derivada Derivada exterior adjunta Derivada de Lie Desigualdad de Bernoulli Determinante Diagramas de Venn Diferencial Diensión (vectorial) Distancia Distancia canónica Distancia discreta Diferencial exterior Distancia max Dominio de definición Dominio de la carta Dominio integral Dominio de valores Dos Forma de Curvatura E Ecuación caracteristica Ecuación de Difusión Ecuación de Helmholtz Ecuación de Killing Ecuación de Laplace Ecuación de onda Ecuación de Poisson Ecuación diferencial de Hermite Ecuación diferencial de Laguerre Ecuación diferencial de Legendre Ecuación diferencial ordinaria Ecuación lineal ordinaria de primer orden Ecuación lineal ordinaria de segundo orden Ecuaciones elipticas Ecuaciones hiperbolicas Ecuaciones parabolicas Elemento neutro Entorno Epimorfismo Escalar de Ricci Espacio de Banach Espacio abiertos 355 356 20. INDICE ANALITICO Espacio base Espacio cerrados Espacio conexo Espacio cotangente Espacio con Medida Espacio derecho Espacio de Hausdorff Espacio de Hilbert Espacio izquierdo Espacio de Lorentz Espacio disconexo Espacio Euclidiano Espacio Medible Espacio métrico Espacio metrizable Espacio métrico completo Espacio normal Espacio normado Espacio ortogonal Espacio paracompacto Espacio Pseudo-Euclidiano Espacio Pseudométrico Espacio Pseudonormado Espacio perpendicular Espacio regular Espacio tangente Espacio topológico Espacio total Espacio vectorial Espacio Unitario Espacios homeomorfos Espacios isomorfos Espacios topológicos Estructura diferenciable Eigen valor Eigen vector F Factor integrante Factores invariantes ϕ−relacionados ϕ−invariante Fibra del haz Fibra sobre un haz Finita por vecindades Forma Armónica Forma canónica diagonal Forma canónica 20. INDICE ANALITICO Forma Cerrada Forma Cocerrada Forma Coexacta Forma Exacta Forma de Maurer-Cartan Full-back Frontera de una función Función Función Función abierta Funcióon acotada Función analı́tica Función armónica Función continua Función continua Función continua Función exponencial Función holomorfa Función indicadora Función medible Función regular Función simple Funcı́on suave Función suave en W Funciones Elementales Función de Green Funciones de transición Funciones de transición Funciones suaves en una vecindad G Grupo Grupo Grupo Grupo Grupo Grupo Grupo Grupo Grupo Grupo Grupo Grupo Grupo Grupo H Abeliano Conmutativo de automorfismos de estructura de isometrı́as de Lorentz Ortogonal Topológico unitario especial lineal especial lineal complejo especial ortogonal especial unitario uniparamétrico de transformación 357 358 20. INDICE ANALITICO Haces isomórficos Haz Haz cotangente Haz fibrado Haz fibrado principal Haz tangente Haz trivial Haz vectorial Haz de Hopf Haz de marcos Homomorfismo Homeomorfismo I Identidades de Bianchi Identidad de Jacobi Imagen de la carta Imagen de un conjunto bajo una función Imagen inversa de un conjunto bajo una función Imagen reciproca Imagen recı́proca Inclusión Inducción matemática Indices covariantes Indices contravariantes Infimo Integral de Gauss Intersección de conjuntos Invariante bajo ϕ Invariante por la izquierda Invariante por la derecha Inversa de una matriz Inversión conforme Inyectiva Isometrı́a Isomorfismo I-esima función coordenada I-esima función coordenada del sistema de coordenadas L Lapaciano Laplaciano Lazo Linealmente dependiente Linealmente independiente Lı́mite Localmente finita 20. INDICE ANALITICO Loop 1-forma 1-forma M Mapeo Mapeo inverso Mapeos lineales Matriz adjunta Matriz antihermitiana Matriz antisimetrica Matriz asociada al polinomio Matriz caracteristica Matriz cuasidiagonal Matriz de Jordan Matrices de Pauli Matriz diagonal Matriz hermitiana Matriz nilpotentes de grado n Matriz polinomial Matriz regular Matriz singular Matriz simétrica Matriz transpuesta Matriz triagonal Matrices equivalentes Matrices similares Maximo Medida Medida discreta Medida de Dirac Medida de Lebesgue Medida discreta de probabilidad Medida de probabilidad Medida discreta de probabilidad Métrica Euclideana Métrica de Friedman-Robertson-Waker Metrizable Minimo Modos normales Módulo Monoide Monomorfismo Monopolo de Dirac Metodo de Gauss Jordan N 359 360 20. INDICE ANALITICO Norma Norma Euclidiana Norma de Lorentz N-formas N-formas No pertenece al conjunto Nucleo O Operador adjunto Operador d’Alabertiano Operador autoadjunto Operador anti-autoadjunto Operación Asociativa Operación binaria Operación Invertible por la izquierda Operación Invertible por la derecha Operación Conmutativa Operador * de Hodge Orden parcial Ortogonales Orden P Paréntesis de Lie Parte Real Parte Real Parte imaginaria Parte imaginaria Pertenece al conjunto Polinomios de Legendre Polinomios de Hermite Polinomios de Laguerre Polinomios de Tchebichef Polinomios de Jacobi Polinomios de Gegenbauer Polinomios de Tchebichef de segunda clase Polinomios de Legendre Polinomios asociados de Laguerre Polinomio carateriztico Polinomio minimo Polinomio caracteristico de la ecuación diferencial Polinomios de Bessel Polo de orden m Polo simple Potencia n-ésima del conjunto Primera forma fundamental de Cartan 20. INDICE ANALITICO Producto entre clases de equivalencia Producto escalar Producto interno Producto escalar Producto interno Producto escalar Producto cartesiano Producto de Lie Producto tensorial Propiedad topológica Proyección Proyección estereográfica Prueba del cociente Pseudo-producto interno Pull-back Pull-back de tensores covariantes Punto singular Punto singular aislado Punto de adherencia Punto interior P-formas R Radio de convergencia Rango Realesnegativos Realespositivos Refinamiento Región simplemente conexa Región de conexión múltiple Reglade Cramer Reglasde Morgan Relación Relación antireflexiva Relación antisimétrica Relación n-áriasobre Relación binaria Relación de equivalencia Relación de recurrencia Relación reflexiva Relación transitiva Relación simétrica Reparametrización Representación adjunta Representación de grupos Restricción de mapeos Rotación conforme 361 362 20. INDICE ANALITICO S Semicampo Segunda forma fundamental de Cartan Serie de Fourier Serie de Fourier Series de Laurent Serie de Maclaurin Serie de Taylor Sección Simbolos de Chistoffel Semigrupo Signatura de la Variedad Singularidad removible Singularidad evitable Sistema completo Sistema de coordenada local del haz Sistema de coordenadas Sistema de ecuaciones lineales Sistema ortogonal Sitema ortonormal Sistema ortonormal Solución unicamente determinada Subanillo Subgrupo Subgrupo normalgrupo Subespacio Vectorial Subconjunto Subconjunto propio Subgrupo de Lie Sucesión Sucesión de Cauchy Sucesión convergente Superficie de Riemann Suryectiva Subgrupos Subcubierta Supremo Subespacio topológico T Tensor Tensor de Curvatura Tensor de Einstein Tensor de Levi-Civita Tensor de Ricci Tensor Métrico Tetrada 20. INDICE ANALITICO Tetrada Nula Teorema de Abel Teorema de Laplace Teorema de Leibniz Teorema del residuo Transformación conforme Transformación homográfica Transformada integral Transformada de Laplace Transformada de Fourier Transformada finita de Fourier Transformación de similaridad Transformaciones lineales Transformación de dualidad Traslación conforme Trayectoria Trivialización local Traza Traslación derecha Traslación izquierda Topologı́a cociente Topologı́a discreta Topologı́a inducida Topologı́a inducida Topologı́a indiscreta Topologı́as de Sierpinski Topologı́a relativa U Unión de conjuntos Uno-formas V Valor absoluto Valor propio Variedad diferenciable Variedad Euclidiana Variedad Lorenziana Variedad Pseudoriemanniana Variedad Riemanniana Variedad suave Variedad suave Variedades difeomórficas Variedad real de dimensión n Variedad real diferenciable Vector de Killing Vector contravariant 363 364 20. INDICE ANALITICO Vector covariant Vector nulo Vectores perpendiculares Vector propio Vector tangente Vector tipo espacio Vector tipo nulo Vector tipo tiempo Vecindad W Wronskiano