PRINCIPIOS MATEM´ATICOS PARA CIENCIAS EX´ACTAS Y

Transcripción

PRINCIPIOS MATEM´ATICOS PARA CIENCIAS EX´ACTAS Y
PRINCIPIOS MATEMÁTICOS
PARA CIENCIAS EXÁCTAS
Y TECNOLOGÍA AVANZADA
Tonatiuh Matos(1)
Petra Wiederhold(2)
(1) Departamento de Fı́sica, Centro de Investigación y de Estudios
Avanzados del IPN, A.P. 14-740, 07000 México D.F., México.
E-mail address, 1: [email protected]
URL: http://www.fis.cinvestav.mx/~tmatos
(2) Departamento de Control Automático, Centro de Investigación
y de Estudios Avanzados del IPN, A.P. 14-740, 07000 México D.F.,
México.
E-mail address, 2: [email protected]
A nuestra pasión:
Ursula y Tiuh
1991 Mathematics Subject Classification. Curso de Matemáticas
Abstract. Curso de Matemáticas para estudiantes de ciencias exáctas y tecnologı́a avanzada.
Contents
1. Prefacio
2. Nomenclatura
Part
3.
4.
5.
6.
7.
vi
viii
1. PRELIMINARES
Conjuntos
Mapeos
Producto Cartesiano y Relaciones
Operaciones
El Conjunto Ordenado ℜ
Part 2.
ÁLGEBRA
1
2
4
8
11
12
17
Chapter 1. ESTRUCTURAS ALGEBRAICAS BÁSICAS
1. Grupos y Semigrupos
2. Homomorfismos
3. Subgrupos y Grupos cociente
4. Anillos y Campos
5. Ideales y Anillos Cociente
19
19
21
22
24
26
Chapter 2. ESPACIOS VECTORIALES
1. El Espacio Vectorial ℜn
2. Definición de Espacio Vectorial
3. Subespacios Vectoriales
4. Homomorfismos
5. Independencia Lineal y Bases
6. Transformaciones Lineales
7. Álgebras
29
29
30
31
32
34
37
38
Chapter 3. MATRICES
1. Mapeos Lineales y Matrices
2. Isomorfismos
3. Ecuaciones Lineales
4. Transpuesta e Inversa de Matrices
41
41
43
47
49
Chapter 4. DETERMINANTES
1. Definición
2. Matrices Similares
3. Invariantes de Matrices Similares (Vectores y Valores Propios)
53
53
57
58
Chapter 5. FORMAS CANONICAS
63
iii
iv
CONTENTS
1. Introducción
2. Forma Canónica de Jordan
3. Forma Canónica Natural
Part 3.
VARIABLE COMPLEJA
Chapter 6. EL PLANO COMPLEJO
1. Los Números Complejos
2. Funciones en el Plano Complejo
3. La Derivada en el Plano Complejo
4. Funciones Armónicas
5. La Integral en el Plano Complejo
6. La Integral de Cauchy
63
69
73
77
79
79
80
84
88
90
98
Chapter 7. SERIES
1. Series en el Plano Complejo
2. Series de Taylor en el Plano Complejo
3. Series de Laurent
4. Polos y Residuos
5. Evaluación de Integrales
103
103
105
107
111
118
Chapter 8. GEOMETRIA DEL PLANO COMPLEJO
1. Transformaciones Conformes
2. Superficies de Riemann
125
125
130
Part 4.
133
ANALISIS
Chapter 9. ESPACIOS MÉTRICOS Y UNITARIOS
1. Estructuras sobre ℜ y ℜn
2. Espacios Métricos.
3. Espacios Normados
4. Espacios Euclideanos.
5. Espacios Unitarios
135
135
140
145
150
153
Chapter 10. ESPACIOS DE HILBERT Y BANACH
1. Sistemas Ortonormales Completos.
2. Operadores Adjuntos.
157
157
164
Chapter 11. ESPACIOS CON MEDIDA
1. Medida
2. Integración en espacios con Medida
3. Espacios Lp
4. Desarrollo de Fourier en L2
5. Funciones Especiales
173
173
177
181
183
184
Part 5.
191
ECUACIONES DIFERENCIALES
Chapter 12. ECUACIONES DIFERENCIALES ORDINARIAS
1. Métodos de Solución
2. Transformadas Integrales
3. Método de Series
193
193
199
204
CONTENTS
v
Chapter 13. ECUACIONES DIFERENCIALES PARCIALES
1. Métodos de Solución
2. Separación de Variables
3. Método de series de Fourier
4. Funciones de Green
209
209
210
220
221
Part 6.
227
TOPOLOGÍA
Chapter 14. ESPACIOS TOPOLÓGICOS
1. Definición y Ejemplos
2. Cerradura, Interior y Frontera
3. Funciones Continuas
4. Topologı́a cociente
5. Espacios Compactos
6. Espacios Conexos
229
229
233
238
241
243
248
Chapter 15. VARIEDADES DIFERENCIALES
1. Variedades
2. Funciones suaves
3. Vectores Tangentes.
4. Uno formas
251
251
256
258
260
Chapter 16. TENSORES Y P-FORMAS
1. Tensores
2. p-Formas
3. Diferenciación e integración en variedades
4. Derivada de Lie y Derivada Covariante
5. El Tensor Métrico y el Tensor de Curvatura
273
273
278
279
293
300
Chapter 17. HACES FIBRADOS
1. Haces
2. Espacios G
3. Haces Fibrados Principales
4. Haces Vectoriales
311
311
313
315
319
Chapter 18. GRUPOS DE LIE
1. Campos Invariantes por la Izquierda
2. La Función Exponencial
3. La representación Adjunta y la Forma de Maurer Cartan.
4. Representación de Grupos y Algebras de Lie
323
323
326
328
332
Part 7.
335
APLICACIONES
Chapter 19. APLICACIONES
1. Ecuaciones Quirales
2. Geometrización de Teorias de Norma
337
337
344
Chapter 20. Indice Analitico
353
vi
CONTENTS
1. Prefacio
Este trabajo es el resultado de la impartición durante 20 años de las materias
de Matemáticas y de Métodos Matemáticos en los Departamentos de Fı́sica, de
Ingenierı́a Eléctrica y de Control Automático del Centro de Investigación y de Estudios Avanzados del IPN (Cinvestav), ası́ como en el Instituto de Fı́sica y Matemá
ticas de la Universidad Michoacana, en México. También se ha impartido parte del
material, incluyendo la parte de topologı́a en cursos especiales de geometrı́a diferencial en las anteriores instituciones y en el Astronomisch-Physikalisches Institut de
la Friederich-Schiller-Universitët de Jena, Alemania, en el Institut fër Theoretische
Physik, de la Technische Universitë Wien y en el Departament of Physics of the
University of British Columbia, en Vancouver, Canada. El temario es básicamente
el correspondiente al de la mayorı́a de las instituciones donde se imparte la carrera
de Fı́sica y Tecnologı́a avanzada en México, como son el CINVESTAV, la UNAM
o la UAM, la Universidad Michoacana, la Veracruzana, etc. y estoy seguro que en
otros paı́ses de Ispanoamérica. Este material tiene como objetivo suplir la terrible
deficiencia de no haber un curso en español, que corresponda a los temarios de las
instituciones de habla ispana, hablado en lenguage espa nol.
El objetivo del libro es multiple. El principal es dar al estudiante la idea
fundamental de lo que son las matemáticas: las matemáticas son la herramienta
que nos ayuda a pensar. Es por eso que el objetivo de estos cursos no ha sido
informativo, sino mas bien formativo. Con estos cursos nosotros pretendemos que
el estudiante adquiera una formación mı́nima de matemáticas para la investigación
en las ciencias y las ingenierı́as. El avance de las ciencias naturales y de la ingenierı́a
hace cada vez mas necesario que el estudiante no solo aprenda a calcular en las
ramas de las matemáticas que se utilizan en su campo, sino que aprenda a utilizar
los teoremas y los resultados emanados de la matemática en toda su connotación.
Es por eso que el libro inicia con definiciones muy elementales, pero necesarias
para entender el resto del material. Sin embargo, el libro no esta pensado para
que el estudiante se convierta en matemático profesional. Esta es la razón por la
que para los teoremas que nosotros consideramos demasiado largos de demostrar,
no se incluye su demostración, solo se enuncian sus postulados con sus premisas
y se utilizan. El libro no pretende ser un compendio completo de matemáticas,
ni siquiera de las matemá ticas que se utilizan en alguna rama en especial. Cada
capı́tulo de este libro podrı́a extenderse a ser un libro gigante de cada tema. Ese
no es el objetivo del libro. Mas bien pretende introducir al estudiante a cada
tema, para que cuando necesite de éste, pueda recurrir a libros especializados del
tema particular, pero pueda entender este libro especializado con un mı́nimo de
dificultad. Los temas tocados por el libro son los temas básicos tı́picos de un curso
de matemáticas: Álgebra, Análisis, Variable Compleja, Ecuaciones Diferenciales
y Topologı́a, que son los tópicos mı́nimos que un matemático deberı́a dominar.
Esta experiencia en la enseñanza de las matemáticas es la que se utiliza en este
libro, para que el estudiante adquiera un mı́nimo de formación en matemáticas
para su investigación en ciencias o en ingenierı́a. La parte de topologı́a diferencial
o variedades diferenciales se agrega, ya que esta área de las matemáticas se ha
convertido en una excelente herramienta para la mecánica clásica, la mecánica
cuántica, la termodinámica, el control automático, entre otras ramas de la ciencia
y la tecnologı́a.
1. PREFACIO
vii
La compresión de este libro requiere de cursos previos de matemáticas. El
material aquı́ contenido esta pensado para tres semestres de mas o menos 40 horas
de los cursos avanzados en las carreras de ciencias o para las maestrı́as en ciencias
e ingenierı́as. El último tema, topologı́a, podrı́a ser un curso optativo en algunas
de estas maestrı́as.
Las matemáticas son por lo general sencillas. Toda la dificultad de entenderlas
radica en el hecho de cómo estudiarlas. A diferencia de otras materias de la escuela,
el aprendizaje de las matemáticas es un proceso lineal, no se puede entender un
material si no se ha comprendido y estudiado con cuidado todo el material anterior. Generalmente, la razón por la que las matemáticas se dificultan es porque
no entendemos un concepto y generalmente este no-entendimiento viene porque
no entendimos algún concepto anterior. Generalmente no nos damos cuenta de
esto. Nosotros recomendamos leer la introducción de este libro con mucho cuidado.
Parecerá que todo es fácil, hasta trivial. Pero las bases firmes ayudaran al estudiante a comprender el resto del material. Nosotros hemos optado por dar las
ideas claras con toda su abstracción, estamos seguros que a la larga este método
facilita mucho el entendimiento de las matemáticas, en vez de dar conceptos intuitivos. Nuestra experiencia es que la acumulación de conceptos intuitivos crea
lagunas de conocimiento cada vez más grandes y por lo tanto a una incomprensión
de las matemáticas cada vez mayor. También hemos evitado mucho material que a
nuestro parecer se deriva fácilmente del material estudiado aquı́. Por eso pensamos
que el material contenido en este libro es el mı́nimo necesario para entender una
gran cantidad de temas matemáticos, de ninguna forma el material es completo.
Es preferible que el estudiante este preparado para aprender más a futuro a que un
estudiante “lo sepa todo” de un tema dado. La profundidad de su conocimiento en
algún tema estará determinado más bien por las necesidades de su investigación.
Es muy común que en los cursos de matemáticas se toquen temas con mucha profundidad que en nuestras investigaciones nunca necesitamos.
La necesidad de que los estudiantes de ciencias e ingenierı́a tengan una formación mı́nima en matemáticas es cada vez mas imperiosa. Vivimos la revolución
cientı́fico-tecnológica y estos cambios tan vertiginosos en nuestro medio, en nuestras vidas requieren de una preparación más profunda y más especializada, pero
sin perder de vista lo general. Es por eso que el libro pretende reducir cada tema
de las matemáticas al mı́nimo, pero dando una panorámica general de los temas de
mayor importancia de las matemáticas que nos ayudaran en nuestras investigaciones
cientı́ficas y tecnológicas, es decir, tocando los temas básicos que nos ayudaran a
pensar.
Queremos agradecer a todos los estudiantes que nos hicieron el favor de leer el
texto y pasarnos correcciones y sugerencias que ayudaron notablemente a mejorar el
texto. Especialmente queremos agradecer a Nayeli Azusena Rodrı́guez Briones y a
Alberto Vázquez por las correcciones que amablemente nos hicieron llegar, muchas
gracias a todos.
México D.F., 2008
Tonatiuh Matos y Petra Wiederhold
viii
CONTENTS
2. Nomenclatura
2.1. Conjuntos.
Definición 0.1. .
La unión de A con B : A ∪ B
La interseccion entre A y B : A ∩ B
Conjunto vacio φ
A es subconjunto de B: A ⊂ B
El complemento del conjunto A: Ac
La diferencia entre A y B : A \ B
El conjunto potencia de A: P(A)
2.2. Mapeos.
Definición 0.2. .
Mapeo o función f de E en F : f : E → F
Dominio de definición de f : Df
Dominio de valores de f : Vf
Composición de mapeos: (g ◦ f )(x) = g(f (x))
Mapeo inverso: f −1
Imagen del conjunto X : f (X)
Imagen inversa: f −1 (Y )
2.3. Producto Cartesiano y Relaciones.
Definición 0.3. .
Producto cartesiano: A × B
Relación entre dos conjuntos: (a, b) ∈ R o aRb o a ∼ b
Clase de equivalencia de x : [x]
El conjunto de todas las clases de equivalencia: E
Conjunto cociente: E =E / ∼
Operación binaria: ϕ : E × E ⇀ E
Ejemplo 0.4. ϕ(x, y) = x + y,
etc.
ϕ(x, y) = x · y,
2.4. Conjuntos Especiales.
Definición 0.5. .
Los números Naturales: N
Los números Enteros: Z
Los números Racionales: Q
Los números Reales: ℜ
Los números Complejos: C
2.5. En los reales ℜ.
Definición 0.6. .
Conjunto parcialmente ordenado: (A, ≤)
Los Reales positivos: ℜ+ = {x ∈ ℜ : x > 0}
Los Reales negativos: ℜ− = {x ∈ ℜ : x < 0}.
El mı́nimo de A: min A
El máximo de A: max A
El supremo de x: sup x
El ı́nfimo de x: inf x
ϕ(x, y) = x − y,
x, y ∈ E,
2. NOMENCLATURA
ix
2.6. Álgebra.
Definición 0.7. .
Grupo o Semigrupo: (A, ·)
Grupo Cociente: E/H
Anillo: (A, +, ·)
Espacio Vectorial: (K, V, +, ·) o simplemente V
Álgebra: (A, +, ·, ◦)
Espacios isomofos: V1 ∼
= V2
Subespacios: V1 ⊂sub V1
Cerradura lineal de X : L(X)
Linealmente independiente: l.i.
La Dimensión de V : dim V = n
El conjunto de las Transformaciones lineales o mapeos lineales: L(V1 , V2 ) :=
Hom(V1 , V2 )
El nucleo de f : ker f
El Rango de f : Rgf := dim f (V1 )
2.7. Matrices.
Definición 0.8. .
La transpuesta de A: AT
El Rango de A : RgA
La inversa de una matriz A : A−1

1
0


..
La matriz identidad: I = 

.
0
1
El determinante de A : det A
La Traza de la matriz A: Tr A
Delta de Kronecker: δkj = (I)ij
Matriz caracteristica de A: A − λI
Polinomio carateriztico de A: det (A − λI)
Ecuación caracteristica de A: det (A − λI) = 0.
Matrix polinomial: U (λ)
2.8. Variable Compleja.
Definición 0.9. .
Parte Real de z: Re(z)
Parte imaginaria: Im(z)
Módulo de z: |z|
Complejo conjugado: z̄
Lı́mite de f : limz→z1 f (z) = z2
df
La derivada de f en z: dz
2
Función armónica: ∇ u = 0
2.9. Espacios Unitarios y Métricos.
Definición 0.10. .
Espacio Euclidiano o Espacio Unitario: (E, (·, ·))
Espacio normado: (E, k · k)
Norma de x: k x k
x
CONTENTS
x es perpendicular u ortogonal a y: x ⊥ y
Complemento ortogonal de H: H ⊥
Espacio métrico: (X, ρ)
Distancia entre x y y: ρ (x, y)
Bola de centro x ∈ X y radio r > 0 : Br (x)
Una sucesión: (xn ) o xn
Convergencia de una sucesión: lim xn = x o xn → x
n→∞
Definición 0.11. .
El conjunto de funciones continuas en [a, b] : C ([a, b])
El espacio de polinomios definidos en [a, b] : Pn ([a, b])
Conjunto de las funciones trigonométricas: T ([−π, π])
Polinomio de grado n: pn o pn (x).
Polinomios de Legendre: Pn o Pn (x)
Polinomios de Bessel Jn
Polinomios de Hermite: Hn o Hn (x)
Polinomios de Laguerre: Ln
Polinomios de Tchebichef de primera clase: Tn
Polinomios de Tchebichef de segunda clase: Un
Polinomios de Jacobi: Pnν,µ
Polinomios de Gegenbauer: Cnλ
El espacio de las funciones periodicas en [a, b] : Fp ([a, b])
Espacio Pseudo-Euclidiano o Espacio de Lorentz: L
Grupo de isometrias del espacio métrico (X, ρ) : Iso (X, ρ)
2.10. Espacios de Hilbert y Banach.
Definición 0.12. Sistema
ortonormal: {xi }i∈I
P
(x,
xi ) xi
Serie de Fourier:
iǫI
Operador adjunto de A: A∗
Operador hermitiano de A: A†
2.11. Espacios con Medida.
Definición 0.13. Álgebra o Álgebra-σ sobre Ω: F
Conjuntos de Borel: E
Espacio Medible: (Ω, F )
Medida: µ o m
Espacio con Medida: (Ω, F , µ)
Medida de Dirac: δx
Función indicadora: χA
2.12. Ecuaciones Diferenciales.
Definición 0.14. .
La ecuación del oscilador armónico y ′′ + ω 2 y = 0.
Ecuación diferencial de Legendre:
d2
d
1 − x2 dx
2 Pn − 2x dx Pn + n (n + 1) Pn = 0
d2
d
2
2
Ecuación diferencial de Bessel: x2 dx
Jn = 0
2 Jn + x dx Jn + x − n
d2
d
Ecuación diferencial de Hermite: dx
H
+
2nH
=
0
H
−
2x
n
2
n
dx n
d
d2
Ecuación diferencial de Laguerre: x dx2 Ln + (1 − x) dx Ln + nLn = 0
2. NOMENCLATURA
La
La
La
La
transformada integral: F (s) = (eq, xs ).
transformada de Fourier: xk = exp(ikx)
transformada de Laplace: xs =R exp(as)
∞
convolución de f con g: f ∗ g = −∞ f (u)g(x − u)du
2.13. Operadores Diferenciales y Coordenadas.
Definición 0.15. .
∂
∂
∂
, ∂y
, ∂z
Operador Nabla: ∇ = ∂x
Operador Laplaciano: ∇2
Operador d’Alabertiano: = ∇2 − v 2 ∂ 2 /∂t2
Elemento de linea: dr = (dx, dy, dz) = dx ex + dy ey + dz ez
Coordenadas esfericas
x =
dr =
∇ =
∇·A =
∇2
=
r sin(θ) cos(ϕ), y = r sin(θ) sin(ϕ), z = r cos(θ)
dr er + rdθ eθ + r sin (θ) dϕ eϕ
∂
1
∂ 1 ∂
,
,
∂r r ∂θ r sin (θ) ∂ϕ
1 ∂ r2 Ar
∂ (sin(θ)Aθ )
∂Aϕ
1
1
+
+
r2
∂r
r sin(θ)
∂θ
r sin(θ) ∂ϕ
∂2
1
∂
1
∂
1 ∂
2 ∂
r
+
sin(θ)
+
r2 ∂r
∂r
r2 sin(θ) ∂θ
∂θ
r2 sin2 (θ) ∂ϕ2
Coordenadas cilindricas
x =
dr =
∇ =
∇·A =
∇2
=
ρ cos(ϕ), y = ρ sin(ϕ), z = z
dρ eρ + ρdϕ eϕ + dz ez
∂ 1 ∂ ∂
,
,
∂ρ ρ ∂ϕ ∂z
1 ∂ (ρAρ ) 1 ∂Aϕ
∂Aρ
+
+
ρ ∂ρ
ρ ∂ϕ
∂z
2
∂
1 ∂
∂2
1 ∂
ρ
+ 2
+
ρ ∂ρ
∂ρ
ρ ∂ϕ2
∂z 2
Coordenadas nulas ξ = x + vt y η = x − vt
Función de Green G(x, y)
Delta de Dirac δ (x)
2
La ecuación de onda u = ∇2 u − v 2 ∂∂t2u = ρ(x, y, z)
La ecuación de Difusión ∂u
∂t = ∇ · (D∇u)
La ecuación de Poisson ∇2 u = ρ(x, y, z)
2.14. Topologı́a.
Definición 0.16. .
Topologı́a de X: τX
Una Vecindad de x: Ux
Una Cubierta: U
El lı́mite: xi ⇀ x o lim xi = x.
La topologı́a relativa o inducida: τA
La clausura de A: A
xi
xii
CONTENTS
El interior de A: Å
La frontera de A: ∂A
El conjunto de funciones continuas: M ap(X, Y ) = C 0 (X, Y )
Las proyecciones de X × Y : Πx
La inclusión de A en X: i : A ֒→ X
hom
Espacios topológicos homeomorfos: X ∼ Y
El grupo de automorfismos: (Aut(X), ◦)
Camino o trayectoria: c
Reparametrización de c: ϕ∗ (c)
2.15. Variedades Diferenciales.
Definición 0.17. .
Variedad real de dimensión n: (M n , τM N )
Carta sobre M n : cα = (Uα , ψα , Vα )
Dominio de la carta: Uα
Sistema de coordenadas sobre Uα: (Uα , ψα )
Parametrización de Uα : ψα−1 , Vα
Imagen de la carta cα : Vα = ψα (Uα )
i-ésima función coordenada sobre ℜn : ri
i-ésima función coordenada del sistema de coordenadas xiα := ri ◦ ψα
Funciones de transición: ψαβ := ψβ ◦ ψα−1
Funciones suaves sobre M n : C ∞ (M n , ℜ)
Funciones suaves en la vecindad de x: C ∞ (M n , x, ℜ)
Imagen recı́proca o “Full-back” de F : F ∗
dif
∼ Nn
Variedades difeomórficas: M m =
n
Espacio tangente en x: Tx M
∂ ∂ tal que ∂x
(f ) := ∂r∂ i f ◦ ψ −1 ψ
Vector en Tx M n : ∂x
i
i
x
x
(x)
∂ Base coordenada de Tx M n :
i
∂x
x i=1,··· ,n
2.16. 1-Formas.
Definición 0.18. .
La diferencial de F en x: dFx = Fx∗
Espacio cotangente en x: Tx∗ M n
Campos vectoriales en M n : T M n
1-formas en M n : T ∗ M n
Producto ó paréntesis de Lie: [X, Y ]
ϕ-relacionados: dϕx (Xx ) = Yϕ(x)
X ϕ-invariante o invariante bajo ϕ : X ◦ ϕ∗ = ϕ∗ ◦ X , o dϕx (Xx ) = Xϕ(x)
Imagen reciproca o “pull-back”: Fy∗
Part 1
PRELIMINARES
3. Conjuntos
Toda construcción matemática inicia con elementos básicos fundamentales, axiomas y postulados que se aceptan de antemano. Estos elementos son la base de
toda la estructura matemática que vamos a construir aquı́. Para nosotros, la base
de nuestra construcción van a ser los conjuntos y suponemos que el lector está
familiarizado con los conceptos básicos de la teorı́a de conjuntos. Sin embargo,
para especificar la notación que usaremos a lo largo del libro, vamos a recordar
algunos conceptos básicos, sin detenernos mucho en ellos. Nombramos, por lo general, conjuntos mediante letras mayúsculas y elementos mediante letras minúsculas.
Recordamos que si A y B son conjuntos, entonces:
* a ∈ A denota que el elemento a pertenece al conjunto A;
* a 6∈ A denota que el elemento a no pertenece al conjunto A;
* El conjunto A ∪ B = {a | a ∈ A o a ∈ B} es la unión de A y B;
* El conjunto A ∩ B = {a | a ∈ A y a ∈ B} es la intersección de A y B;
* φ denota el conjunto vacio, el conjunto que no tiene ningún elemento;
* A ⊂ B, al igual que A j B, denotan que el conjunto A es subconjunto del
conjunto B, lo cual significa que para cualquier elemento x ∈ A implica que x ∈ B;
* A ⊂ B puede también denotar que A j B, con A 6= B, es decir, A es un
subconjunto propio de B;
* A y B son iguales, A = B, siempre cuando A ⊂ B y B ⊂ A;
* Sea E el conjunto que denota el conjunto universo, es decir, el conjunto
de todos los elementos existentes (o de interés). Entonces, para cualquier conjunto
A (siendo entonces un subconjunto de E), Ac = {x ∈ E | x 6∈ A} es el conjunto
complementario (o conjunto complemento) de A;
* El conjunto A \ B = {x ∈ A | x 6∈ B} es el conjunto diferencia entre A y
B.
* El conjunto P(A) = {B | B ⊂ A} es el conjnto de todos los subconjuntos
de A, y se le llama el conjunto potencia de A.
Cuando se trabaja con conjuntos es siempre muy útil la representación de los
conjuntos mediante los Diagramas de Venn, vean por ejemplo la figura 1. Cada
conjunto se representa por una figura en el plano, por ejemplo un cı́rculo o una
elipse, entendiendo que los elementos del conjunto quedan representados por puntos
pertenecientes a la figura. Por ejemplo, el caso de dos conjuntos que se intersectan
se refleja entonces por el hecho de que las figuras correspondientes tienen puntos en
común. A continuación vamos a resumir algunas de las reglas fundamentales para
trabajar con conjuntos.
Proposición 0.19. Sean E un conjunto universo, y A, B, C subconjuntos de
E. Entonces vale lo siguiente:
1) E c = φ, φc = E,
2) (Ac )c = A,
3) A ∪ Ac = E, A ∩ Ac = φ,
4) A ∩ A = A, A ∪ A = A,
5) A ∪ E = E, A ∩ E = A,
6) A ∪ φ = A, A ∩ φ = φ,
7) A ∩ B = B ∩ A, A ∪ B = B ∪ A,
8) (A ∪ B)c = Ac ∩ B c ,
9) (A ∩ B)c = Ac ∪ B c .
10) A ∪ (B ∩ A) = A, A ∩ (B ∪ A) = A.
3. CONJUNTOS
3
S
Figure 1.T Diagramas de Venn para la unión A B, la intersección A B, el complemento Ac y la resta de conjuntos A \ B.
Estos diagramas son muy utilizados para explicar gráficamente las
propiedades de conjuntos.
11) Si A ∪ B = E y A ∩ B = φ , entonces A = B c y B = Ac .
12) (A \ B) ∩ C = (A ∩ C) \ (B ∩ C).
Todas estas propiedades establecen igualdades entre conjuntos. Las propiedades
8) y 9) son llamadas las Reglas de Morgan. Por lo general hay diferentes formas
de proceder para demuestran proposiciones con conjuntos. Por ejemplo, si M y N
son conjuntos, para demostrar que M = N , tenemos dos posibilidades:
1. Demostrar que M y N tienen exactamente los mismos elementos, es decir,
mostrar que x ∈ M sı́ y sólo sı́ x ∈ N ;
2. O, usando el hecho que M = N sı́ y sólo sı́ A ⊂ B y B ⊂ A, hacer la
demostración en dos pasos: Primero se muestra que x ∈ M implica que x ∈ N , y
después se muestra que x ∈ N implica que x ∈ M .
Ejemplo 0.20. Demostremos, por ejemplo, la regla de Morgan (A ∪ B)c =
Ac ∩ B c :
Sea x ∈ (A ∪ B)c . Eso significa que x 6∈ (A ∪ B), ası́ que, es falso el hecho
que x ∈ A o x ∈ B. Por lo tanto, x 6∈ A y x 6∈ B, es decir, x ∈ Ac ∩ B c ,
lo cual demuestra que (A ∪ B)c ⊂ Ac ∩ B c . Para mostrar la inclusión contraria,
Ac ∩ B c ⊂ (A ∪ B)c , tomemos un elemento x ∈ Ac ∩ B c , eso significa que x 6∈ A y
a la vez x 6∈ B, lo cual implica que x 6∈ A ∪ B, ası́ que, x ∈ (A ∪ B)c , completando
la demostración.
Ejercicio 0.21. Demuestre, con todo detalle, la proposición 0.19.
4
4. Mapeos
Los mapeos son la estructura matemática que asocia elementos entre conjuntos.
Vamos a definir los mapeos porque los vamos a utilizar intensivamente durante todo
el texto y porque el concepto del mapeo es fundamental en matemáticas. En la
literatura se usan como conceptos sinónimos al de mapeo también aplicación o
función. La definición de mapeo es la siguiente:
Definición 0.22. Sean E y F conjuntos. Un mapeo o función f de E en F
(denotado por f : E → F ),asocia a cada elemento de E, un único elemento de F .
Vean la figura 2.
Figure 2. Representación gráfica de un mapeo. Este mapeo va
del conjunto E al conjunto F y asocia a cada elemento de E un
único elemento de F . Si salieran dos flechas de E o algún elemento
de E no tuviera flecha, entonces f no serı́a mapeo.
Notación 0.23. f también se puede ver como un conjunto de pares ordenados
(a, b), donde a ∈ E y b ∈ F , o como el subconjunto f = {(a, b) | a ∈ E y b ∈ F }
que cumple siempre que cuando (a, b) ∈ f y (a, b′ ) ∈ f se sigue que b = b′ . Como
es bien sabido, en lugar de (a, b) ∈ f se usa también la notación f (a) = b.
Ejemplo 0.24. Sea f : ℜ → ℜ tal que para cada x ∈ ℜ se asocie x → x2 , es
decir, la función será, a cada número real le asociamos su cuadrado, tenemos la
función f (x) = x2 . Sin embargo, la asociación√contraria f : ℜ+ → ℜ tal que para
cada x ∈ ℜ se asocie su raı́z cuadrada f (x) = x, no es un mapeo, ya que a cada
número real le estamos asociando dos números (ya no es único), la raı́z positiva
y la raı́z negativa. Para que f sea
√ mapeo hay que especificar cuál raı́z es la que
asociamos, por ejemplo: f (x) = + x.
Definición 0.25. Sea f : E → F una función.
· El conjunto Df = {x ∈ E | existe y ∈ F tal que y = f (x)} se llama el
dominio de definición de f o simplemente dominio de f .
· El conjunto Vf = {y ∈ F | existe x ∈ E con f (x) = y} se llama el dominio
de valores de f o simplemente codominio de f .
4. MAPEOS
5
Ejemplo 0.26. Para el mapeo f (x) = x2 , el dominio es el conjunto de los
números reales y el codominio es el conjunto de los números reales positivos unión
el cero.
√
Ejemplo 0.27. Para el mapeo f (x) = + x (asignación del resultado positivo
solamante), el dominio y el codominio son los números reales no negativos.
Definición 0.28. Una función f : E → F se llama
· suryectiva ó sobre si Vf = F , esto es, si para todo y ∈ F existe x tal que
f (x) = y;
· inyectiva ó 1-1 si para todo x, y ∈ Df vale que f (x) = f (y) implica x = y;
· biyectiva si f es 1-1 y sobre.
Para los ejemplos que siguen vamos a necesitar la siguiente notaci’on.
Notación 0.29. Al conjunto de los reales positivos lo denotamos como ℜ+ =
{x ∈ ℜ : x > 0} y al de los reales negativos como ℜ− = {x ∈ ℜ : x < 0}.
Ejemplo 0.30. La función f : ℜ→ ℜ+ tal que f (x) = x2 es sobre, pues, para
todo x ∈ ℜ+ , su raiz cuadrada es un número real cuyo cuadrado es igual a x. Sin
embargo, la función f : ℜ→ ℜ tal que f (x) = x2 no es sobre, pues, para todo
x ∈ ℜ− , no existe un número real cuyo cuadrado es igual a x < 0. Este mapeo no
es 1-1, ya que por ejemplo f (2) = f (−2).
Ejemplo 0.31. La función f : ℜ+ → ℜ, x → x2 (f (x) = x2 , con x ∈ ℜ+ ) es
una función cuyo dominio de definición es ℜ+ , su dominio de valores también es
ℜ+ . Análogamente, la función f : ℜ+ → ℜ+ es 1-1 y sobre, ası́ que es una biyección.
Existe una serie de operaciones muy importantes entre funciones. Como veremos mas adelante, estas operaciones en algunos casos tienen estructuras, ya sea
algebraica o topológica, que hacen muy rico el trabajo matemático con mapeos.
A continuación repasamos algúnas operaciones con funciones, las cuales son de
importancia en el trabajo matemático con ellas.
a) Restricción de mapeos
Definición 0.32. Si f : A → B y g : A → B son mapeos, entonces g se llama
la restricción de f si Dg ⊂ Df y g(x) = f (x) para toda x ∈ Dg .
b) Composición de mapeos
Definición 0.33. Sean f : E ⇀ F y g : F ⇀ G mapeos tales que Vf ⊆ Dg . El
mapeo (g ◦ f ) : E ⇀ G. definido por (g ◦ f )(x) = g(f (x)) para x ∈ Df , se llama la
composición o la concatenación de f y g. Ver figura 3.
Observen que la concatenación es una operación asociativa entre mapeos, es
decir, para mapeos g, f, h, (g ◦ f ) ◦ h = g ◦ (f ◦ h). Es claro que la misma operación,
en general, no es conmutativa, veamos un ejemplo:
Ejemplo 0.34. Sean f y g funciones reales (es decir, de los reales a los reales)
tales que f (x) = x + 1 y g(x) = x2 . Entonces f ◦ g(x) = f (g(x)) = f (x2 ) = x2 + 1.
Por otro lado g ◦ f (x) = g(f (x)) = g(x + 1) = (x + 1)2 , que es claramente diferente
a x2 + 1. Es decir, f y g no conmutan con la operación ◦
Otra operación de mucha importancia entre funciones biyectivas es el mapeo
inverso. Hay que tomar en cuenta que esta operación sólo vale entre funciones
biyectivas y no en general. Veamos su definición:
c) Mapeo inverso
6
Figure 3. Composición de funciones. Aquı́ se ve la composición
de la función f con g, o sea g(f (a)). El elemento a de E es mapeado
al elemento g(f (a)) de G, pasando por F .
Definición 0.35. Sea f : E → F un mapeo 1-1 y sobre. Un mapeo f −1 :
F ⇀ E definido por f −1 (y) = x sı́ y sólo sı́ f (x) = y, con y ∈ Vf y x ∈ Df , se
llama mapeo inverso de f . Ver figura 4.
Figure 4. El mapeo inverso mapea un elemento f (a) de F , en
un elemento a de E, tal que si f (a) = b, se tiene que f −1 (b) = a.
Para que f este bien definida, la función tiene que ser biyectiva.
Observemos que si f −1 es el mapeo inverso de f , entonces Df −1 = Vf y Vf −1 =
Df .
Notación 0.36. Una función con inversa también se llama invertible o no
singular.
Ejemplo 0.37. La función f : ℜ → ℜ, con f (x) = x2 no tiene inverso, porque
el mapeo f −1 (x2 ) tiene asociados dos elementos, x y −x, por lo que f −1 no es
función (f no es 1-1). Sin embargo,
la función f : ℜ+ → ℜ+ con f (x) = x2 tiene
√
−1
como inverso a f (x) = + x.
4. MAPEOS
7
Ejercicio 0.38. Sean f : E → F y g : F → G mapeos invertibles tales que
Vf ⊆ Dg . Demuestre que entonces el mapeo g ◦ f es un mapeo 1-1 de E en G , y
(g ◦ f )−1 = f −1 ◦ g −1 .
d) Imagen de un conjunto bajo una función
Ahora vamos a definir la forma en que no sólo un elemento, sino todo un
conjunto de elementos puede ser proyectado o mapeado por una función. Primero
vamos a definir la forma directa, es decir, cómo se mapea un conjunto del dominio
al codominio. La definición es la siguiente:
Definición 0.39. Sea f = E ⇀ F una función y X ⊆ Df . El conjunto
f (X) = {f (x) | x ∈ X} se llama la imagen del conjunto X bajo f.
Es claro que f (X) = {y ∈ F | existe x ∈ X tal que f (x) = y}, ası́ que,
la imagen del conjunto X bajo f es un subconjunto del codominio de la función.
Si el codominio de la función coincide con la imagen de su dominio de definición,
entonces la función es sobre.
e) Imagen inversa de un conjunto bajo una función
De la misma forma ahora podemos ver cúal es el conjunto correspondiente en
el dominio, de un conjunto del codominio. A este conjunto se le llama la imagen
inversa y es importante señalar que la imagen inversa existe independientemente
de que la función tenga o no inversa. Formalmente la definición es:
Definición 0.40. Sea f : E ⇀ F una función y Y ⊂ F. El conjunto f −1 (Y ) =
{x ∈ Df | f (x) ∈ Y } se llama la imagen inversa del conjunto Y bajo f .
Observen que la imagen inversa se define para funciones sin exigir que estas
sean 1-1, ası́ que, la definición de la imagen inversa, de entrada, no necesariamente
está relacionada con la definición del mapeo inverso. La imagen inversa existe
sin importar si la función tiene o no inversa. A continuación se resumen algunas
propiedades importantes de la imagen y de la imagen inversa de conjuntos.
Lema 0.41. Sea f : E ⇀ F una función, X1 y X2 subconjuntos de Df , y Y1
y Y2 subconjuntos de F . Entonces:
1) f (X1 ∪ X2 ) = f (X1 ) ∪ f (X2 )
2) f (X1 ∩ X2 ) j f (X1 ) ∩ f (X2 )
3) f −1 (Y1 ∪ Y2 ) = f −1 (Y1 ) ∪ f −1 (Y2 )
4) f −1 (Y1 ∩ Y2 ) = f −1 (Y1 ) ∩ f −1 (Y2 )
En la segunda propiedad, en general vale solamente la desigualdad, como muestra el siguiente ejemplo:
Ejemplo 0.42. Considerese los conjuntos X = {a, b, c, d}, Y = {d, e, h, g},
M = {l, m, n, o} , y un mapeo f : X ∪ Y ⇀ M dado por
f = {(a, l), (b, l), (c, m), (d, l), (e, n), (h, m), (g, o)}.
Tenemos f (X) = {l, m} , f (Y ) = M , ası́ que f (X) ∩ f (Y ) = {l, m}, pero
f (X ∩ Y ) = f ({d}) = {l} lo cual es un subconjunto propio de {l, m}.
Ejercicio 0.43. Demuestre, con todo detalle, las propiedades del lema 0.41.
Ejercicio 0.44. Sea f : A → B tal que x → f (x) = 1/x. Diga si f es mapeo
para
1) A = ℜ, B = ℜ, donde ℜ son los números reales.
2) A = ℜ\{0}, B = ℜ,
8
3)
4)
5)
6)
A = ℜ, B = ℜ\{0},
A = ℜ\{0}, B = ℜ\{0},
A = ℜ, B = ℜ ∪ {zapato},
A = ℜ, B = S 1 , donde S 1 es el cı́rculo.
5. Producto Cartesiano y Relaciones
En esta sección vamos a estudiar el producto cartesiano entre dos o más conjuntos. Este concepto es importante porque es la base para definir dimensión, espacios
vectoriales, etc. Con este concepto también vamos a definir relación y relación de
equivalencia, la cual será usada multiples veces en lo que sigue e incluso, se puede
dar una definición alternativa de funición. Entonces la definición de producto cartesiano es como sigue:
Definición 0.45. Si E1 , E2 , ..., En son conjuntos, entonces el producto cartesiano n-ésimo de estos conjuntos se define como el conjunto de todas las n-uplas
(ordenadas) (e1 , e2 , ..., en ) donde para cada i ∈ {1, ..., n}, ei es un elemento del
conjunto Ei , es decir:
E1 × E2 × ... × En = {(e1 , e2 , ..., en ) | e1 ∈ E1 , . . . , ei ∈ Ei , . . . , en ∈ En }
Ejemplo 0.46. El producto cartesiano de dos conjuntos A y B, es el conjunto
de pares ordenados de elementos de A y B:
A × B = {(a, b) | a ∈ A, b ∈ B},
Alternativamente, un mapeo puede entenderse también como un producto
cartesiano de dos conjuntos desde las primeras entradas representan el dominion
de la función y la segunda entrada el codominio. Un caso especial del producto
cartesiano es cuando todos los conjuntos son iguales, E = E1 = E2 = · · · = En .
Entonces, el producto cartesiano E × E × · · · × E se denota por E n , y se nombra
la potencia n-ésima del conjunto E : E n = {(e1 , e2 , ..., en ) | ei ∈ E}.
Ejemplo 0.47. El Espacio Vectorial Euclidiano ℜn es un ejemplo bien conocido
de la potencia de un conjunto, ℜn = ℜ × · · · × ℜ = {(a1 , . . . , an ) | ai ∈ ℜ para todo
i ∈ {1, . . . , n}}. En particular, tenemos el Plano Euclidiano ℜ2 = ℜ × ℜ = {(a, b) |
a, b ∈ ℜ}.
Partiendo ahora del concepto de producto cartesiano podemos definir el importante concepto de relación, el cual es básico para el álgebra. Una relación es
básicamente un subconjunto del producto cartesiano, formalmente se define como:
Definición 0.48. Sean E1 , . . . , En , conjuntos y E = E1 × E2 × · · · × En el
conjunto cartesiano de estos. Una relación sobre E es un subconjunto de E.
En particular, si todos los conjuntos E son los mismos, para un conjunto E =
E×E×...×E, cualquier subconjunto de la potencia n-ésima de E se llama relación
n-ária sobre E. Ver figura 5.
El caso más importante es el caso n = 2, la relación se llama entonces relación
binaria sobre E. Si denotamos la relación por R, entonces R ⊂ E × E, ası́ que R
es un conjunto de pares ordenadas (a, b) con a, b ∈ E. En lugar de (a, b) ∈ R se
usa también la notación aRb o, se usa un sı́mbolo apropiado, por ejemplo a ∼ b o
a ≤ b o a k b o a ≡ b.
5. PRODUCTO CARTESIANO Y RELACIONES
9
Figure 5. Una relación es representada aquı́ de dos formas.
La relación representada es una relación entre números que esta
dada por (0,2), (1,1), (2,0), (2,2), (3,4), (6, 6), (7,6), (7,8), (7,9).
Obsérvese que a diferencia de los mapeos, una relación es muy
general y no guarda reglas especiales.
Notación 0.49. En lo que sigue vamos a denotar una relación indistintamente
como R o ∼. Ası́, a está relacionado con b, se denota como aRb o a ∼ b.
Ejemplo 0.50. Tomemos el conjunto R de los reales y sean a, b ∈ R. Decimos
que a y b estan relacionados a ∼ b si a es menor que b. En vez de a ∼ b escribimos
a < b y a ∼ lo denotamos por <.
Por otro lado, existe una clasificación de las relaciones dada por sus propiedades.
Esta clasificación es:
Definición 0.51. Una relación binaria R sobre un conjunto E se llama
· reflexiva si (x, x) ∈ R , para todo x ∈ E;
· antireflexiva si no existe x ∈ E tal que (x, x) ∈ R ;
· simétrica si, para x, y ∈ E, (x, y) ∈ R implica (y, x) ∈ R ;
· antisimétrica si, para x, y ∈ E, cuando (x, y) ∈ R y (y, x) ∈ R entonces
se sigue x = y ;
· transitiva si, para x, y, z ∈ E, cuando (x, y) ∈ R y (y, z) ∈ R entonces se
sigue (x, z) ∈ R ;
· relación de equivalencia si es reflexiva, simétrica y transitiva.
Ejemplo 0.52. La relación en R dada por <, no es reflexiva, ya que un número
no puede ser menor a si mismo, esto es, < es antireflexiva. Tampoco es simétrica,
ya que si a < b, se sigue que b no puede ser menor que a. < no puede ser antisimétrica porque no es antireflexiva, pero ≤ si es antisimétrica. < y ≤ son transitivas.
10
Las relaciones de equivalencia tienen una gran importancia, debido a que dan
lugar a una descomposición del conjunto en donde se definen en clases. Esta descomposición separa los conjuntos en subconjuntos disjuntos dando ası́ una clasificación
natural del conjunto con esta propiedad. Es por eso que las clases de equivalencia
son muy importantes en matemáticas. Por ejemplo, esta descomposición es la base
de la construcción de estructuras cocientes. Veamos esto en la siguiente definición.
Definición 0.53. Sea ∼ una relación de equivalencia sobre E. Para x ∈ E, la
clase de equivalencia de x se define como [x] = {y ∈ E | x ∼ y}. El conjunto E
de todas las clases de equivalencia se llama el conjunto cociente de E, el cual se
denota también por E/ ∼, vean la figura 6:
Figure 6. Una relación de equivalencia separa los conjuntos en
subconjuntos disjuntos, sólo relacionados por la relación de equivalencia. Es una manera de clasificar conjuntos en sus partes.
E = E/ ∼= {[x] | x ∈ E} = {{y ∈ E | y ∼ x} | x ∈ E}
Debido a la reflexividad de una relación de equivalencia ∼ sobre E, la clase
[x] es un conjunto no vacı́o pues contiene a x. Es evidente que toda clase [x] es
un subconjunto de E. Por lo tanto, la unión de todas las clases de equivalencia
es igual al conjunto E. Aplicando la simetrı́a de ∼, es claro que, para x, y ∈ E,
x ∼ y implica que tanto x ∈ [y] como también y ∈ [x]. Tomando en cuenta además
la transitividad de la relación, es fácil deducir que [x] = [y] sı́ y sólo sı́ x ∼ y.
Observese también que clases distintas de equivalencia son disjuntas entre sı́, en
resumen podemos escribir esto en el siguente lema.
Lema 0.54. Si ∼ es una relación de equivalencia sobre E, y [x] es la clase de
equivalencia de x, para x ∈ E, entonces
a) x ∈ [x];
b) x ∼ y sı́ y sólo sı́ [x] = [y] , para x, y ∈ E;
c) si [x] 6= [y] entonces [x] ∩ [y] = φ, para x, y ∈ E.
6. OPERACIONES
11
Como consecuencia de estas propiedades, el conjunto cociente E/ ∼ es una
descomposición del conjunto E, es decir, E/ ∼ = {[x] | x ∈ E} es un conjunto de
subconjuntos de E, los cuales son disjuntos por parejas y cuya unión es igual a E.
Ejercicio 0.55. Demuestra con detalle el lema 0.54.
Ejemplo 0.56. Sea x, y ∈ Z , el conjunto de los números enteros, y sea ∼5
la relación dada por x ∼5 y si x/5 y y/5 tienen el mismo residuo, formalmente
si existen representaciones x = k · 5 − r , y = l · 5 − r, con números enteros
k y l ( r es el residuo). Tenemos por ejemplo 0 ∼5 5 ∼5 10 ∼5 20 ∼5 −15;
3 ∼5 13 ∼5 −2 ∼5 23 ∼5 588. Es fácil ver que ∼5 es una relación de equivalencia.
Entonces, cada clase de equivalencia de esta relación tiene una forma [r] = {x | x/5
deja el residuo r}, lo cual es el conjunto de todos los números enteros representables
como k·5r, para algún número entero apropiado k. Resulta que solamente hay cinco
clases de equivalencia, dadas por [0], [1], [2], [3], [4]. En particular, la clase [0] es el
conjunto de todos los números enteros que son multiples de 5.
6. Operaciones
El álgebra abstracta se basa en propiedades de operaciones entre los elementos
de un conjunto. Por eso, aquı́ repasamos y formalizamos conceptos elementales
relacionados con operaciones.
Definición 0.57. Sea E un conjunto. Una operación (binaria) sobre E es
un mapeo ϕ : E × E ⇀ E, con Dϕ = E × E.
Notación 0.58. Para denotar una operación, usualmente se usa un sı́mbolo
apropiado, por ejemplo +, ×, ·, −.
Las operaciónes son clasificadas segun sus propiedades. Estas propiedades son
fundamentales y definen muchas veces a la operación misma. Según las propiedades
de las operaciones se van a definir las estructuras algebraicas. Estas propiedades
son:
Definición 0.59. Una operación ϕ se llama
· Asociativa si ϕ(ϕ(a, b), c) = ϕ(a, ϕ(b, c)), a, b, c ∈ E
· Conmutativa si ϕ(a, b) = ϕ(b, a) a, b ∈ E
· Con elemento neutro si existe e ∈ E tal que ϕ(a, e) = ϕ(e, a) = a para
toda a ∈ E
· Invertible por la izquierda si para todo b, c ∈ E, existe a ∈ E tal que
ϕ(a, b) = c
· Invertible por la derecha si para todo b, c ∈ E, existe a ∈ E tal que
ϕ(b, a) = c
Ejemplo 0.60. Tomemos de nuevo los números reales ℜ. La operación + :
ℜ × ℜ → ℜ, con +(a, b) = a + b, es tal que para todo a, b, c ∈ ℜ, se tiene que +:
· Es Asociativa ya que +(+(a, b), c) = +(a + b, c) = (a + b) + c = a + (b + c) =
ϕ(a, ϕ(b, c)), a, b, c ∈ E
· Es Conmutativa ya que +(a, b) = +(b, a)
· Existe 0, elemento neutro tal que +(a, 0) = +(0, a) = a
· Es Invertible por la izquierda y por la izquierda ya que existe siempre un
número tal que +(a, b) = +(b, a) = c
12
Comentario 0.61. .
a) Cada operación binaria, tiene maximalmente un elemento neutro. Para
demostrar esto, supongamos que ϕ tiene dos elementos neutros e1 y e2 . Entonces
ϕ(e1 , e2 ) = e1 y ϕ(e2 , e1 ) = e2 , pero debido a que e1 y e2 son neutros, se obtiene
e1 = e2 .
b) Otra manera de entender que significa que ϕ es invertible por la izquierda
es la siguiente. Sean b, c ∈ E y consideremos a x como una incognita. Entonces ϕ
es invertible por la izquierda si la ecuación ϕ(x, b) = c siempre se puede resolver.
En particular esto sucede para el caso especial c = e (para el neutro de ϕ), ası́ que
para cualquier b ∈ E, existe a ∈ E tal que ϕ(a, b) = e. Al elemento a se le llama el
elemento inverso izquierdo de b.
c) Análogamente, ϕ es invertible por la derecha significa que la ecuación ϕ(b, x) =
c, con b, c ∈ E para una incognita x, siempre se puede resolver. O sea, existe a ∈ E
tal que ϕ(b, a) = e. A este elemento a se le llama el elemento inverso derecho de b.
Si la operación es invertible (por la izquierda en este caso), implica que existe
x = b−1 que cumple con esta identidad. b−1 es la expresión que se acostumbra para
denotar el inverso de b.
7. El Conjunto Ordenado ℜ
En esta sección veremos a los números reales como un conjunto ordenado, el
orden en estos números es de suma importancia, por eso que les dedicamos una
sección especial. Los números reales son conjuntos ordenados y las operaciones en
ℜ se “portan bien” con respecto al orden. Para comenzar, daremos la definición de
qué significa ordenado. Es un concepto que utilizamos mucho, pero necesita una
definición formal. Veamos esto:
Definición 0.62. Si A es un conjunto y ≤ es una relación binaria, reflexiva,
antisimétrica y transitiva sobre A, entonces ≤ se llama orden parcial sobre A, y
(A, ≤) se llama conjunto parcialmente ordenado.
Como vemos, esta definición se puede aplicar a cualquier conjunto no necesariamente de números, el orden parcial es un concepto muy general. En los números
naturales, enteros, racionales, y reales, con su orden parcial ≤ en ℜ definido por
x ≤ y sı́ y sólo sı́ existe k ∈ ℜ, k ≥ 0 tal que x + k = y, todos los números estan
ralacionados entre si, es decir, para cualesquiera dos números x, y , o vale x ≤ y o
bien y ≤ x.
Definición 0.63. Un orden parcial sobre A se llama orden (lineal) si para
todo a, b ∈ A se sigue a ≤ b o b ≤ a.
Notación 0.64. Para efectuar cálculos en (ℜ, +, ·, ≤), usaremos la notación:
x < y sı́ y sólo sı́ x ≤ y y x 6= y.
ℜ.
Comentario 0.65. Obsevemos que ℜ+ ∪ ℜ− ∪ {0} es una descomposición de
Comentario 0.66. N ⊂ ℜ+ y ℜ+ es cerrado bajo las dos operaciones de
(ℜ, +, ·).
Lema 0.67. Para todo a, b, c ∈ ℜ, a ≤ b implica a + c ≤ b + c , y a ≤ b y c ≥ 0
implica que a · c ≤ b · c. (“Monotonı́a” de + y ·; por eso (ℜ, +, ·, ≤) se llama campo
ordenado.)
7. EL CONJUNTO ORDENADO ℜ
13
Ejercicio 0.68. Demostrar el lema anterior.
Ejercicio 0.69. Demostrar para a, b, c ∈ ℜ:
a) a ≤ b, c ≤ d implica a + c ≤ b + d (adición de desigualdades);
b) 0 ≤ a ≤ b, 0 ≤ c ≤ d implica a · c ≤ b · d (multiplicación de desigualdades);
c) a ≤ b implica −a ≥ −b;
d) a 6= 0 implica a2 > 0.
Aplicando estas sencillas leyes de cálculo y el principio de inducción completa,
se pueden demostrar muchas formulas que valen para los números naturales o
reales. Vamos a ver un ejemplo representativo para recordar el uso de la inducción
matemática.
Ejemplo 0.70. Demostramos que, para todo número natural n vale
n
X
(0.1)
= 1 + 2 + 3 + · · · + n = 1/2 · n · (n + 1).
i=1
Vamos a demostrarlo por inducción matemática.
Primer paso: demostramos que la fórmula es verdad para n = 1 (inicio de la
P
inducción): Pues claro, 1i=1 = 1, y por el otro lado 1/2 · 1 · 2 = 1, 1 = 1.
Segundo paso: Suponemos que la fórmula es verdadera para n = k (hipótesis
de inducción) y asumimos ahora n = k + 1. Hay que demostrar que la fórmula
es verdad para este n (demostración de la inducción), aplicando la hipótesis de
inducción.
Pk
Entonces tenemos la hipótesis i=1 i = 1/2 · k · (k + 1), y
k+1
X
i =
k
X
i + (k + 1) por la hipótesis
i=1
i=1
1/2 · k · (k + 1) + (k + 1)
1
1
= (k + 1)( k + 1) = (k + 1)(k + 2),
2
2
lo cual completa la demostración.
=
Ejercicio 0.71. Demostrar por inducción que:
a) para todo n ∈ N y x ∈ ℜ, x > −1, (1 + x)n ≥ 1 + nx ( desigualdad de
Bernoulli);
b) para todo n ∈ N y x, a ∈ ℜ, 0 ≤ a ≤ 1, (1 + a)n ≤ 1 + (2n − 1)a.
En un conjunto ordenado es posible definir un elemento que es mayor a todos o
un elemento que es menor a todos. Estos conceptos son los que definen el máximo
y el mı́nimo. Su definición formal es:
Definición 0.72. Sea a ∈ A, A ⊂ (ℜ, ≤). Se define el mı́nimo y el máximo
de A como
a = min A sı́ y sólo sı́ a ≤ b para todo b ∈ A,
a = max A sı́ y sólo sı́ b ≤ a para todo b ∈ A.
Lema 0.73. Para cualquier A ⊂ ℜ, si min A [max A] existe, entonces es único.
Demostración 0.74. Suponemos a = min A, y que existe a′ ∈ A tal que
a = min A. Entonces a ≤ b para toda b ∈ A y a′ ≤ b para toda b ∈ A, en particular
a, a′ ∈ A, ası́ que a ≤ a′ y a′ ≤ a, lo cual implica por la antisimetrı́a de ≤ que
a = a′ . ′
14
Notación 0.75. Recordamos la notación de intervalos en ℜ: si a, b ∈ ℜ, entonces
[a, b] = {x ∈ ℜ | a ≤ x ≤ b},
(a, b) = {x ∈ ℜ | a < x < b},
[a, b) = {x ∈ ℜ | a ≤ x < b},
(a, b] = {x ∈ ℜ | a < x ≤ b}.
Además se define usualmente
[a, ∞) = {x ∈ ℜ | a ≤ x},
(a, ∞) = {x ∈ ℜ | a < x},
(−∞, b) = {x ∈ ℜ | x < b},
(−∞, b] = {x ∈ ℜ | x ≤ b}.
Notemos que ∞ es un sı́mbolo que en éste caso significa muy grande, más
grande de lo que yo necesito, más grande de lo que yo quiero, tan grande como sea
necesario. Pero ∞ es sólo eso, un sı́mbolo, no es un número que pertenezca a los
reales.
Ejercicio 0.76. Determinar (si existen) los mı́nimos y máximos de los seguientes
subconjuntos de ℜ:
M1 = [−230, 500),
M2 = M1 ∩ Z,
M3 = (−∞,
√ 0] ∪ [3, 4] ∪ (45, 2000],
M4 = (0, √ 2] ∩ Z,
M5 = [0, √2) ∩ Z,
M6 = [0, √2] ∩ Z,
M7 = (0, 2) ∩ Z,
M8 = [−1, ∞).
Otros conceptos importantes en un conjunto ordenado son el de cota superior y el de cota inferior. Estos conceptos están intimamente relacionados con los
anteriores de máximo y mı́nimo. Su definición formal es:
Definición 0.77. Sea S ⊂ ℜ, S 6= φ y x ∈ ℜ.
x se llama cota superior de S si y ≤ x par toda y ∈ S.
x se llama cota inferior de S si y ≥ x para toda y ∈ S.
S se llama acotado por arriba [por abajo] si S tiene cota superior [inferior].
S se llama acotado si S tiene cota inferior y cota superior.
Notación 0.78. Denotamos OS = {x ∈ ℜ | x es cota superior de S}, US =
{x ∈ ℜ | x es cota inferior de S}.
Resumen 0.79. De una forma análoga a la definición de cota superior y cota
inferior, también podemos definir, supremo e ı́nfimo del conjunto S, y denotarlos
como sup S y inf S, los cuales se definen como:
x = sup S sı́ y sólo sı́ x ∈ ℜ tal que y ≤ x para toda y ∈ S, y además, para
todo z ∈ OS (es decir, z ∈ ℜ tal que s ≤ z para toda s ∈ S) se sigue x ≤ z.
x = inf S sı́ y sólo sı́ x ∈ ℜ tal que y ≥ x para toda y ∈ S, y además, para todo
z ∈ US (es decir, z ∈ ℜ tal que s ≥ z para toda s ∈ S) se sigue x ≥ z.
Comentario 0.80. Algunas observaciones sobre este tema nos ayudaran a
ordenar conceptos:
- Cotas superiores e inferiores pueden no existir
7. EL CONJUNTO ORDENADO ℜ
15
- Aunque sup S y inf S existen, pueden no pertenecer a S
- Si max S [min S] existe, entonces existe sup S [inf S] y sup S = max S ∈ S
[inf S = min S ∈ S].
Ejercicio 0.81. Investigar si los siguientes conjuntos tienen cotas superiores/inferiores, y si los tienen decir cuáles son y determinar, si existen, supremos
e infimos:
C1 = [1, ∞),
C2 = (1, ∞),
C3 = { n1 | n ∈ N }.
Ejercicio 0.82. Demuestrar que, si S ⊂ ℜ y p es una cota superior de S tal
que p ∈ S, entonces p = sup S.
Part 2
ÁLGEBRA
CHAPTER 1
ESTRUCTURAS ALGEBRAICAS BÁSICAS
La primera parte de nuestro estudio esta dedicada a las estructuras algebraicas.
En esta parte vamos a iniciar agregandole a los conjuntos operaciones. Primero una,
luego dos y ası́, varias operaciones. Cuando estas operaciones tienen determinadas
propiedades, estos conjuntos con operaciones definidas en el conjunto reciben diferentes nombres. Vamos a iniciar con la estructura más simple, un conjunto más una
operación, llamada semigrupo. Como esta estructura es tan pobre, (pero importante), la siguiente será una estructura con una operación, pero con inverso y un
elemento especial, llamado identidad. A esta estructura se le llama grupo. De esta
forma, los conjuntos se van enriqueciendo con operaciones formando estructruas
cada vez más ricas e interesantes. Luego agregaremos dos, tres y más operaciones,
aunque aquı́ sólo nos limitaremos a las estructuras más conocidas y las más usadas
en las ciencias exactas y en la ingenierı́a.
1. Grupos y Semigrupos
Los grupos han adquirido suma importancia en muchos campos de aplicación
de las matemáticas. En fı́sica y quı́mica la estructura de grupo es fundamental
tanto para entender las simetrı́as en teorı́as de campo, en teorı́as de partı́culas
elementales, como para resolver ecuaciones diferenciales no lineales. Los grupos
son estructuras básicas de las matemáticas. Vamos a iniciar con la definición de
semigrupo para a partir de esta definición, dar la definición de grupo.
Un grupo es un conjunto provisto de una operación con ciertas propiedades,
las cuales generalizan de forma abstracta operaciones que nos son familiares desde
niños para calcular con números. Antes de definir un grupo, consideramos entonces
un concepto todavı́a más simple, el de semigrupo:
Definición 1.1. Un semigrupo es un conjunto E provisto de una operación
binaria asociativa · sobre E, se donota por (E, ·).
El hecho que · es una operación binaria sobre E significa que, siempre cuando
a, b ∈ A, entonces a · b ∈ A. Veamos unos ejemplos:
Ejemplo 1.2. Sea A = {f : A ⇀ A} el conjunto de todos los mapeos del
conjunto A en sı́ mismo, y consideramos la operación ◦ de composición (concatenación) entre mapeos, entonces (A, ◦) es un semigrupo. Observamos que (A, ◦)
además tiene un elemento especial: un elemento neutro, el mapeo identidad IA
definido por IA (x) = x para todo x ∈ A, pues, definitivamente IA ◦ f = f ◦ IA para
cualquier f ∈ A.
Notación 1.3. Si un semigrupo E tiene un elemento identidad, es decir, si
tiene un elemento e ∈ E tal que e · a = a para todo a ∈ E, el semigrupo se llama
monoide.
19
20
1. ESTRUCTURAS ALGEBRAICAS BÁSICAS
Ejemplo 1.4. Sea A un conjunto arbitrario (por ejemplo, de ”letras y cifras”).
Una secuencia finita de elementos de A la llamamos una palabra sobre A, es decir,
una palabra tiene la forma (a1 , a2 , a3 , ..., an ), con n ≥ 1, n natural, ai ∈ A para
todo i. El número n es llamado longitud de la palabra. Adicionalmente se considera
la palabra vacı́a, denotada por φ y definida como la secuencia de longitud cero (la
cual no contiene ningún elemento). Entonces el conjunto de palabras sobre A está
dado por E = {(ai )ni=1 , n ∈ N, ai ∈ A para toda i = 1, ..., n} ∪ {φ}. Definimos
ahora la adición de palabras como:
(a1 , a2 , a3 , ..., ak ) + (b1 , b2 , b3 , ..., bl ) = (a1 , a2 , a3 , ..., ak , b1 , b2 , b3 , ..., bl )
Es evidente que (E, +) es un semigrupo, llamado el semigrupo de las palabras, el
cual tiene importancia básica en teorı́as de la computación. La adición + aqui
definidida es claramente no conmutativa y tiene un elemento neutro: la palabra
vacı́a.
Con esto ya estamos listos para la definición de grupo.
Definición 1.5. Un grupo (E, ·) es un semigrupo con elemento neutro y elementos inversos, es decir:
1) (E, ·) es semigrupo
2) Existe e ∈ E tal que e · a = a
3) Para todo a ∈ E existe x ∈ E tal que x · a = e. A x se le denota por a−1 .
Notación 1.6. En caso de que la operación · sea además conmutativa, (E, ·)
se llama grupo Abeliano o grupo conmutativo.
Antes de considerar unos ejemplos de grupos, observamos los siguientes detalles
y propiedades elementales:
Comentario 1.7. Sea E grupo y a ∈ E. Según la definición, existe x ∈ E tal
que x·a = e, es decir, x es un “inverso por la izquierda” de a. Pero x·a·x = e·x = x.
Por otro lado, existe y ∈ E tal que y · x = e. Eso significa (y · x)a · x = y · x, en
consecuencia e · a · x = e, entonces a · x = e , es decir, x es a la vez ”inverso por
la derecha” de a. El elemento x se llama inverso de a y se denota por a−1 .
Comentario 1.8. En un grupo:
* Para cada a ∈ E existe a−1 ∈ E tal que a−1 · a = a · a−1 = e, lo cual significa
que las ecuaciones x · a = e y a · x = e, con a ∈ E, x incognita, siempre se pueden
resolver.
* Para cada a ∈ E, su inverso a−1 es determinado de manera única.
* El elemento neutro también es determinado de manera única. Además, según
la definición, el neutro primero es un ”neutro por la izquierda”. Sin embargo, con
e · a = a tenemos también a · e = a · (a−1 · a) = (a · a−1 ) · a = e · a = a, ası́ que, e
es a la vez un neutro ”por la derecha”. En consecuencia:
* Para toda a ∈ E, se tiene que e · a = a · e = a.
* Para a, b, c ∈ E, a · c = b · c implica que a = b, lo cual es fácil de deducir.
* Para a, b ∈ E, (a · b)−1 = b−1 · a−1 , puesto que (b−1 · a−1 ) · (a · b) =
−1
b · (a−1 · a) · b = e.
Ahora analizamos unos ejemplos :
Ejemplo 1.9. (Z, +) el conjunto de los números enteros con la suma ordinaria,
es un grupo abeliano. Su neutro es el número 0; para cada entero a, su inverso es
2. HOMOMORFISMOS
21
el número −a. Asimismo, los números racionales Q, los reales R, y los complejos
C, cada uno con la suma ordinaria, son grupos abelianos.
Ejemplo 1.10. (Z, ·), el conjunto de los enteros con el producto ordinario, es
un semigrupo conmutativo, cuyo neutro es el número 1. Sin embargo, no es un
grupo, puesto que para cualquier entero a diferente de 1, su inverso multiplicativo
serı́a el número a−1 = a1 , el cual no es entero y el 0 no tiene inverso.
Ejemplo 1.11. El conjunto Q de los racionales, igualmente como el de los
reales R y el de los complejos C, con el producto ordinario ·, son semigrupos
conmutativos con el neutro 1, pero no son grupos. Eso se debe a que el número 0,
el cual es el neutro aditivo, no tiene inverso multiplicativo, puesto que 10 no es un
número. Por otro lado, es evidentemente que (Q \ {0}, ·), (R \ {0}, ·) y (C \ {0}, ·)
son grupos abelianos.
Ejemplo 1.12. Sea A un conjunto y F = {f : A ⇀ A, biyectiva}, el conjunto
de los mapeos biyectivos de A en sı́ mismo. Entonces (F , ◦) con la operación de
la composición, es un grupo, en general este grupo no es abeliano. El neutro de
este grupo (su unidad) es el mapeo identico IA : A ⇀ A definido por IA (x) = x
para toda x ∈ A. El elemento inverso para cada f ∈ F es el mapeo inverso f −1 ,
cuya existencia está asegurada para cualquier biyección. (F , ◦) se llama el grupo
de permutaciones del conjunto A, cada f ∈ F es llamado una permutación de A.
Ejercicio 1.13. .
1) Demuestre que Z2 = ({1, −1}, ·) es un grupo.
2) Sea el conjunto A = {a, b, c}. Defina un producto + en A de tal forma que
(A, +) sea un grupo.
3) ¿Se puede definir + de tal forma que (A, +) sea abeliano?
Ejercicio 1.14. Sea O(n) = {O | O es matriz n × n con OT = O−1 }. Demuestre que este conjunto es un grupo con la multiplicación de matrices.
Ejercicio
1.15. Sea el conjunto SU (2) = {U | U es matriz 2 × 2 compleja
a b
U =
, con d = a∗ y c = −b∗ }, donde * significa complejo conjugado.
c d
Demuestre que SU (2) es un grupo con el producto entre matrices. Observe que
det U = 1.
2. Homomorfismos
Las estructuras algebraicas suelen tener semejanzas entre ellas. Estas semejanzas se representan en matemáticas utilizando el concepto de mapeos muy epeciales
llamados morfismo. Los morfismos nos sirven para relacionar conjuntos con estructuras entre sı́, de tal forma que con estos morfismo, uno puede estudiar propiedades
de algún conjunto usando otro, en donde estas propiedades sean más simples de
entender. En esta sección daremos sólo la definición de estos morfismos para grupos.
Definición 1.16. Sean (E, ·) y (F, ·) grupos y f : E ⇀ F . f se llama homomorfismo si f (a · b) = f (a) · f (b) para toda a, b ∈ E
Un homomorfismo se llama
· monomorfismo si f es mapeo 1 − 1
· epimorfismo si f es mapeo sobre
· isomorfismo si f es biyectiva
· automorfismo de E si f es isomofismo y f : E ⇀ E.
22
1. ESTRUCTURAS ALGEBRAICAS BÁSICAS
Ejemplo 1.17. Sea el conjunto Z2 = {k0 , k1 } con el producto + definido por
k0 + k0 = k0 , k0 + k1 = k1 , k1 + k0 = k1 y k1 + k1 = k0 . Es fácil ver que (Z2 , +) es
un grupo. Ahora tomemos la función f : Z2 → Z2 , tal que f (k0 ) = 1 y f (k1 ) = −1.
Entonces se tiene que
f (k0 + k0 )
f (k0 + k1 )
f (k1 + k0 )
f (k1 + k1 )
= f (k0 ) = 1 = 1 · 1 = f (k0 ) · f (k0 )
= f (k1 ) = −1 = 1 · (−1) = f (k0 ) · f (k1 )
= f (k1 ) = −1 = (−1) · 1 = f (k1 ) · f (k0 )
= f (k0 ) = 1 = (−1) · (−1) = f (k1 ) · f (k1 )
Por lo que f es un homomorfismo entre los grupos (Z2 , +) y (Z2 , ·). Además es un
homomorfismo 1-1, por lo que es un monomorfismo, y es sobre, entonces también
es un epimorfismo, por lo que f es un isomorfismo entre estos dos grupos.
3. Subgrupos y Grupos cociente
Los subconjuntos de un conjunto A con estructura de grupo, no necesariamente
son grupos. Eso es fácil verlo, ya que si, por ejemplo, un subconjunto de A no
contiene el neutro o no tiene los inversos de todos los elementos del subconjunto, éste
no será grupo. Sin embargo, si en este subconjunto se tiene también la estructura de
grupo con la misma operación binaria que el original, entonces se sigue la siguiente
definición.
Definición 1.18. Sea A ⊂ B. Se dice que A es un subgrupo de (B, ·) si (A, ·)
también es grupo, si (B, ·) conserva el mismo elemento neutro de (A, ·)
Comentario 1.19. El producto del grupo (A, ·) y (B, ·) podrı́an no ser el
mismo, si no lo especificamos ası́. Sin embargo, en este texto siempre sobre entenderemos que ambos grupos conserven la misma operación binaria.
Notación 1.20. Si el conjunto A es subgrupo del conjunto B, lo vamos a
denotar como A ⊂gr B.
Ahora vamos a introducir un concepto muy importante en los grupos que despues extederemos para los anillos, es el concepto de grupo cociente. Primero vamos
a introducir una ralación de equivalencia en el grupo, con ella, el conjunto se separa
en clases de equivalencia formando el conjunto de las clases. Luego podemos definir
en ciertas ocaciones una operación en el conjunto de las clases y con este fomar de
nuevo un grupo. A este grupo lo llamaremos grupo cociente. Vamos a hacerlo
formalmente.
Definición 1.21. Sea (E, ·) grupo y H subgrupo de E es decir H ⊂gr E y sean
a, b ∈ E. La relación ∼H se define como
a ∼H b ⇔ a · b−1 ∈ H
Lema 1.22. ∼H es una relación de equivalencia.
Demostración 1.23. Chequemos que se cumple la definición de relación de
equivalencia.
1) e ∈ H porque H es subgrupo de E. Además si a ∈ H esto implica que
a−1 ∈ H por lo mismo. Se sigue que e ∈ H sii a · a−1 ∈ H, esto implica que
a ∼H a o sea ∼H es reflexiva.
3. SUBGRUPOS Y GRUPOS COCIENTE
23
2) Sean a ∼H b, por definición esto es sii a · b−1 ∈ H. Por ser subgrupo se
sigue que (a · b−1 )−1 ∈ H y esto es sii b · a−1 ∈ H, lo que implica que b ∼H a, es
decir ∼H es simétrica.
3) Sean a ∼H b y b ∼H c. Esto implica que a · b−1 ∈ H y b · c−1 ∈ H. Pero H
es cerrado bajo ·, por lo que (a · b−1 ) · (b · c−1 ) = a · e · c−1 = a · c−1 ∈ H es decir
a ∼H c, lo que implica que ∼H es transitiva. Corolario 1.24. ∼H genera una descomposición de E en clases de equivalencia. Es decir E/ ∼H = {[a] | a ∈ E}.
ka
Notación 1.25. Vamos a denotar a estas clases de equivalencia como: [a] =not
y al conjunto de clases de equivalencia como: E/ ∼H =not K = {ka | a ∈ E}
Ejemplo 1.26. Unos ejemplos muy interesantes son los siguientes:
1) ke = {b ∈ E | e ∼H b ⇔ e · b−1 = b−1 ∈ H} = H
2) ka = {b ∈ E | a ∼H b ⇔ b · a−1 = h ∈ H}
= {b ∈ E | b = ha} = {h · a ∈ E | h ∈ H} =not H · a
donde la última identidad es la notación que usaremos para este conjunto.
Para poder definir una estructura de grupo en el conjunto de las clases, es
necesario que el grupo original tenga una propiedad más. Esta propiedad es la
siguiente.
Definición 1.27. Un subgrupo H ⊂ E tal que a · H = H · a para toda a ∈ E
se llama subgrupo normal de E.
Observemos primero que si el grupo original es abeliano, entonces todos su
subgrupos son normales. Pero si el grupo no es abeliano, hay que enteder con
cuidado la definición anterior. El hecho de que a · H = H · a implica que si tomamos
el elemento a · h, siendo h ∈ H, tiene que haber algún elemento en h1 ∈ H · a, donde
h1 no necesariamente es h1 = h · a, pero tal que a · h = h1 . Y viceversa, si tomamos
h · a, entonces existe h2 ∈ a · H tal que h · a = h2 . Si siempre existen estos elementos
h1 y h2 para todo h ∈ H, el grupo es normal. Entonces podemos dar la estructura
de grupo al conjunto K de las clases usando la siguiente definición:
Definición 1.28. Sean ka , kb ∈ K clases de E generadas por ∼H . Se define el
producto
ka ◦ kb = {x · y | x ∈ ka ∈ K, y ∈ kb ∈ K}
como el producto entre clases de equivalencia.
Con este producto se pueden definir a la vez una estructura de grupo en el
conjunto de las clases de equivalencia, usando la siguiente proposición.
Proposición 1.29. Sea E grupo y H un subgrupo normal de E. Sean ka ∈ K
las clases generadas por ∼H con a ∈ E. Con el producto ka ◦ kb = ka·b , se sigue que
(E/ ∼H , ◦) es grupo i.e. (K,◦) es un grupo.
Demostración 1.30. Chequemos que se cumple la definición de grupo.
a)ka ◦ kb ⊂ K ya que (H · a) · (H · b) = H · (a · H) · b = H · H · a · b = H · a · b
(ya que H · H = H), se sigue que. ka ◦ kb = ka·b ∈ K
b)(ka ◦ kb ) ◦ kc = (H · a · H · b) · H · c = H · a · (H · b · H · c)
c) ke ∈ K y es el neutro del grupo, ya queka ◦ ke = ka·e = ka
d) ka ◦ ka−1 = ka·a−1 = ke 24
1. ESTRUCTURAS ALGEBRAICAS BÁSICAS
Notación 1.31. Al grupo K se le denota como K = E/H y se le llama el grupo
cociente de E por H.
El siguiente ejemplo nos dará mayor claridad sobre las definiciones anteriores.
Ejemplo 1.32. Sea (Z, +) y H = {2n | n ∈ Z}, el grupo de los enteros pares.
Entonces (H, +) es subgrupo normal de (Z, +). Veamos esto con detalle.
Observemos que la relación ∼H para los elementos a, b ∈ Z es tal que si a ∼H b,
se tiene que a + (−b) ∈ H, lo cual implica que a − b debe estar en H, es decir, debe
ser par. Pero esto solo pasa si ambos a y b son pares o ambos son impares. Vamos
a definir las clases de equivalencia de los pares y las clases de equivalencia de los
impares en los enteros como:
k0 = {b ∈ Z | b ∼H 0} = H
k1 = {b ∈ Z | b ∼H 1} = {2n + 1, n ∈ Z}
k2 = H
es decir, K = {k0 , k1 }. Observemos que con la suma (el producto de grupo)

k1
 ⊕ k0
k0 k0
k1
k0 ⊕ k1 =

k1 k1 k2 = k0
(K, ⊕) es un grupo. Pero ya habiamos visto en el ejemplo 1.17 que este grupo es
isomorfo a Z2 , por lo que Z/H = Z2 = Z/{2n | n ∈ Z}.
Ejercicio 1.33. Construir Z3 = Z/multiplos de 3 y Z4 = Z/multiplos de 4.
4. Anillos y Campos
Otras estructuras algebraicas de mucha importancia son los anillos y los campos. En esta sección veremos la definición de estos.
Definición 1.34. Sea A conjunto y · , + operaciones binarias sobre A es decir
· : A × A ⇀ A y + : A × A ⇀ A.
A la triada (A, +, ·) se le llama anillo si
1) (A, +) es grupo abeliano
2) (A, ·) es semigrupo
3) + y · son distributivos
Comentario 1.35. Explı́citamente, un conjunto con las operaciones + y · es
un anillo, si se cumple lo siguiente
1) Para toda a, b ∈ A, a + b ∈ A es asociativo.
2) Existe e tal que e + a = a + e = a para toda a ∈ A.A e también se le llama
el cero de A y se le denota por e = 0
3) Para toda a ∈ A existe −a tal que a + (−a) = 0
4) a + b = b + a para todos a, b ∈ A
5) a, b ∈ A, se sigue que a · b ∈ A, es decir, el producto es asociativo
6) Para toda a, b, c ∈ A se tiene que el producto es distributivo por la izquierda
con la suma, es decir c · (a + b) = c · a + c · b
7) Analogamente por la derecha, esto es (a + b) · c = a · c + b · c
Ejemplo 1.36. ({0}, +, ·) es un anillo trivial
(Z, +, ·) es el anillo de los enteros
(ℜ, +, ·) es el anillo de los reales
4. ANILLOS Y CAMPOS
25
Ejercicio 1.37. Demuestre que (Z, +, ·) y (ℜ, +, ·) son anillos.
Entre más ricas sean las estructuras algebraicas, más propiedades tienen. Ahora
veremos algúnas de las propiedades más interesantes de los anillos.
Sea (A, +, ·) anillo y 0 el neutro de la operación binaria +. Entonces se siguen
los siguientes lemás.
Lema 1.38. Para todo a ∈ A implica que a · 0 = 0 · a = 0
Demostración 1.39. Como a·0 = a·(0+0) = a·0+a·0, y 0 = −(a·0)+a·0 =
−(a · 0) + a · 0 + a · 0, entonces 0 = a · 0 Lema 1.40. (−a) · b = −(a · b) y a · (−b) = −(a · b)
Demostración 1.41. Ya que (a · b) + (−a) · b = (a + (−a)) · b = 0 · b = 0 Lema 1.42. (−a) · (−b) = a · b
Demostración 1.43. Análogo. Las propiedades anteriores son bien conocidas en los números reales, pero se
cumplen en cualquier anillo. Algunos de los tipos especiales de anillos más usados
en la literatura son los siguientes
Sea (A, +, ·) anillo
Definición 1.44. Un anillo (A, +, ·) se llama:
· Anillo conmutativo, si · es conmutativo
· Anillo con unidad, si A tiene al menos 2 elementos y · tiene elemento
neutro (llamado 1).
· Anillo sin divisores de cero, si A tiene al menos 2 elementos y a 6= 0 y
b 6= 0 implica que a · b 6= 0 para todos a, b ∈ A
· Dominio integral, si A es anillo conmutativo, con unidad, sin divisores de
cero.
· Campo si A es anillo sin divisores de cero cuyo semigrupo multiplicativo
(A\{0}, ·) es grupo abeliano.
· Semicampo si A es anillo sin divisores de cero cuyo semigrupo multiplicativo
(A\{0}, ·) es grupo no abeliano.
Ejercicio 1.45. .
1) Exprese explı́citamente todas la propiedades de un campo.
2) Demuestre que (Z, +, ·), (Q, +, ·), (ℜ, +, ·), (C, +, ·), son anillos conmutativos
con unidad sin divisores de cero.
3) Demuestre que (Q, +, ·), (ℜ, +, ·) y (C, +, ·), son campos.
4) Demuestre que ({2n | n ∈ Z}, +, ·) es anillo conmutativo sin unidad sin
divisores de cero.
De forma análoga a como definimos subgrupo, se puede definir subanillo.
Definición 1.46. Sea E ⊆ A. (E, +, ·) es un subanillo de A, si E es anillo
con el mismo neutros multiplicativo y aditivo de A.
26
1. ESTRUCTURAS ALGEBRAICAS BÁSICAS
5. Ideales y Anillos Cociente
En una sección anterior definimos los grupos cociente. Análogamente vamos a
definir ahora los anillos cociente y algúnas de sus propiedades más interesantes.
Sean (A, +, ·) anillo y (H, +, ·) un subanillo de A. Claramente se tiene que
(H, +) tiene que ser subgrupo abeliano de (A, +). Pero si (H, +) es abeliano, esto
implica que (H, +) es un subgrupo normal de (A, +). Entonces podemos construir
(A, +)/∼H = A/H = K. Si ka , kb ∈ K, se tiene que
ka ⊕ kb = {m + n | m ∈ ka , n ∈ kb } = ka+b
Analogamente definimos en el semigrupo (H, ·)
ka ⊙ kb = {m · n | m ∈ ka , n ∈ kb }
= {m · n | m ∈ H + a, n ∈ H + b}
= {(k1 + a) · (k2 + b) = k1 · k2 + k1 · b + a · k2 + a · b, k1 , k2 ∈ H}
Proposición 1.47. Sea (A, +, ·) anillo y H ⊂ A subanillo de A y sean a ∈ A
y h ∈ H. Entonces la triada (A/∼H , ⊕, ⊙) es un anillo si a · h ∈ H y h · a ∈ H, con
ka ⊕ kb = ka+b
ka ⊙ kb = ka·b = {h + a · b, h ∈ H} = H + ab
Ejercicio 1.48. Probar la proposición formalmente.
Notación 1.49. Al anillo (A/H, +, ·) se le llama anillo cociente y a H se le
llama un ideal en A.
Ejemplo 1.50. Sea el anillo (Z, +, ·). El conjunto H = ({3n | n ∈ Z}, +, ·) es
un ideal de Z. Para ver esto, primero veamos que H es un subanillo de Z :
1) H es cerrado para la suma, ya que 3n + 3m = 3(n + m) ∈ H.
2) Con inversos, ya que −(3n) = 3(−n) ∈ H.
3) H es cerrado para el producto, ya que 3n · 3m = 3(3nm) ∈ H.
Entonces H es subanillo de Z. Además: + y · son asociativos. El neutro de la
suma es 0 = 3 · 0
Comentario 1.51. (H, +, ·) es anillo conmutativo sin divisores de cero, pero
no tiene unidad, ya que (1 6= 3n).
Ejemplo 1.52. Ahora chequemos que H es ideal. Para ver esto, falta ver que
el producto de un elemento de H con cualquier elemento de Z pertenece a H. Pero
esto es asi, ya que (3n) · m = 3(nm) ∈ H. Entonces Z3 = (Z/H, +, ·) es un
anillo cociente. Ahora veamos como se ve este anillo cociente. Los elementos ka se
pueden escribir como: a, b ∈ Z, a ∼H b ssi a − b ∈ H, es decir ssi a − b es multiplo
de 3 y esto es ssi a y b dejan el mismo resto en sus divisores entre 3, es decir, si
a = 3l1 + r, y b = 3l2 + r. Entonces se tiene que,
k0 = H
k1 = {3n + 1 | n ∈ Z}
k2 = {3n + 2 | n ∈ Z}
k3n = k0 , k3n+1 = k1 , k3n+2 = k2
5. IDEALES Y ANILLOS COCIENTE
27
Si las operaciones entre las clases de equivalencia están dadas por
ka ⊕ kb = ka+b
ka ⊙ kb = ka·b
se tiene entonces que la suma y el producto están dados respectivamente por

⊕ k0 k1 k2



k0 k0 k1 k2
ka ⊕ kb =
k
k0

1 k1 k2


k2 k2 k0 k1
y


 ⊙ k0 k1 k2

k0 k0 k0 k0
ka ⊙ kb =
k
k2

1 k0 k1


k2 k0 k2 k1
Por lo que H es un ideal.
Ejercicio
1) ¿Cuáles
2) ¿Cuáles
3) ¿Cuáles
1.53. Respondan sin pruebas explicitas a las siguientes preguntas.
de los anillos Z2 , Z3 , Z4 no tienen divisores de cero?
si tienen división entre cero?
son campos?
Ejercicio 1.54. Construya explicitamente los ideales de Z4
CHAPTER 2
ESPACIOS VECTORIALES
Los espacios vectoriales son la estructura más rica que vamos a ver aquı́ con
detalle. Los espacios vectoriales son tan importantes en fı́sica, quı́mica, ingenierı́a,
etc. que les vamos a dedicar un capitulo completo a ellos solos. Los espacios
vectoriales más conocidos son los que se construyen sobre ℜn . En este capı́tulo
vamos a repasar estos espacios y despues vamos a generalizarlos a espacio vectoriales
arbitrarios. Estamos suponiendo que el lector esta familiarizado con ℜn , pero para
iniciar el tema, vamos a dar un resumen de sus propiedades más importantes.
1. El Espacio Vectorial ℜn
Resumen 2.1. Recordemos que el espacio vectorial ℜn , o escrito explicitamente
(ℜ , · , + , ⊙), es una estructura algebráica, definida sobre los reales, tal que:
X(ℜ, +, ·) es un campo que con la operación + es grupo Abeliano, con neutro
0ℜ y distributividad entre + y ·, y con la operacion ·, (ℜ\{0ℜ }, ·) es grupo Abeliano,
con neutro 1ℜ sin divisores de cero: a 6= 0ℜ , b 6= 0ℜ ⇒ a · b 6= 0ℜ
X(ℜn , +, ⊙) es espacio vectorial sobre (ℜ, +, ·) tal que (ℜn , +) son grupos
Abelianos con neutro 0ℜn
X(ℜn , ⊙) es un mapeo de ℜ⊙ℜn en ℜn (es un nuevo tipo de multiplicación); ⊙
es distributiva con + y asociativa con ·, es decir, si se tiene que, a, b ∈ ℜ, x, y ∈ ℜn
entonces:
a ⊙ (x + y) = (a ⊙ x) + (a ⊙ y)
(a + b) ⊙ x = (a ⊙ x) + (b ⊙ x)
(a · b) ⊙ x = a ⊙ (b ⊙ x)
X⊙ tiene neutro representado por 1ℜ y cumple que 1ℜ ⊙ x = x para todo x ∈ V.
En otras palabras, (ℜn , · , + , ⊙) es un espacio vectorial sobre el campo (ℜ, +, ·),
donde para x, y ∈ ℜn , x = (x1 , x2 , · · · , xn ), y = (y1 , y2 , · · · , yn ) se tiene:
n
(1)
(2)
(3)
(4)
x + y = (x1 + y1 , x2 + y2 , · · · , xn + yn ),
0ℜn = (0, 0, · · · , 0),
−(x1 , x2 , · · · , xn ) = (−x1 , −x2 , · · · , −xn ),
⊙ es la “multiplicación de escalares con vectores”, para k ∈ ℜ, k ⊙
(x1 , x2 , · · · , xn ) = (k · x1 , k · x2 , · · · , k · xn ).
Otros conceptos importantes a recordar de espacios vectoriales son:
XUn subespacio vectorial H de ℜn es un espacio vectorial tal que H ⊂ ℜn , y
(H, ·, +, ⊙) mismo es un espacio vectorial.
XLa interpretación geométrica de un punto en ℜn se suele dar de la forma
siguiente. Un punto x ∈ ℜn es un vector de traslación, determinado por valor y
dirección y representado por una flecha.
XLos Homomorfismos son mapeos lineales entre espacios vectoriales (ℜn , ·, +, ⊙)
y (ℜm , ·, +, ⊙) sobre el mismo campo ℜ:
29
30
2. ESPACIOS VECTORIALES
XSean (ℜn , ·1 , +1 , ⊙1 ) y (ℜm , ·1 , +2 , ⊙2 ) espacios vectoriales y f : ℜn → ℜm
una función entre estos espacios. f se llama homomorfismo si f (x +1 y) = f (x) +2
f (y) y f (a ⊙1 x) = a ⊙2 f (x), para cualesquiera x, y ∈ ℜn , a ∈ ℜ. f se llama
isomorfismo si es homomorfismo y biyección.
XIndependencia y bases en (ℜn , +, ⊙) sobre el campo ℜ. Si X ⊂ ℜn , entonces
L(X) = {
m
X
i=1
ai ⊙ xi | ai ∈ ℜ, x1 , · · · , xm elementos distintos de ℜn , m ∈ N }
se llama cerradura lineal de X. L(X) es el subespacio más pequeño de ℜn que
contiene a X. X se llama linealmente independiente si para cualesquiera elementos distintos x1 , · · · , xm de X,
m
X
ai ⊙ xi con ai ∈ K implica a1 = a2 = · · · = am = 0K .
0V =
i=1
X se llama base de ℜn si X es linealmente independiente y L(X) = ℜn .
Cada espacio vectorial ℜn tiene una base y cualesquiera dos bases tienen el
mismo número n de elementos. Este número n se llama dimensión (vectorial)
de ℜn . Por ejemplo dim(ℜn ) = n. La base canónica de ℜn es
{(1, 0, · · · , 0, 0), (0, 1, · · · , 0, 0), · · · , (0, 0, · · · , 0, 1, 0), (0, 0, · · · , 0, 1)}
Hasta aquı́ hemos recordado las propiedades más importantes de ℜn , en adelante hablaremos de los espacios vectoriales en general.
2. Definición de Espacio Vectorial
Los espacios vectoriales son de las estructuras algebraicas más utilizadas en
todas las ramás de la ciencia. En fı́sica e ingenierı́a se utilizan intensamente para
modelar el espacio, las funciones periódicas, soluciones de ecuaciones lineales y
diferenciales, los polinomios, etc. Debido a su rica estructura algebraica, los espacios
vectoriales son también muy interesantes para estudiarse desde el punto de vista
matemático puro. En este capitulo estudiaremos los espacios vectoriales y sus
propiedades más importantes. Empecemos entonces con su definición.
Definición 2.2. Sea (K, +, ·) campo y V conjunto. Sean ⊕ : V × V → V y
⊙ : K × V → V operaciones binarias asociativas y distributivas, i.e., se tiene que
para todo a, b ∈ K y x, y ∈ V .
a) (a · b) ⊙ x = a ⊙ (b ⊙ x)
b) (a + b) ⊙ x = (a ⊙ x) ⊕ (b ⊙ x).
c) a ⊙ (x ⊕ y) = (a ⊙ x) ⊕ (a ⊙ y)
Un espacio vectorial es el ordenamiento (K, V, ⊕, ⊙) tal que (V, ⊕) es grupo
abeliano y la identidad 1K de K es tal que 1K ⊙ x = x para toda x ∈ V .
El ejemplo más conocido y más utilizado por todos es sin duda el espacio
vectorial ℜn . Sin embargo, un caso más general se puede construir con el producto
cartesiano del campo sobre el que se define el espacio vectorial.
Ejemplo 2.3. Sea V = K n = K × K × · · · × K = {(a1 , · · · , an ) | ai ∈ K para
toda i = 1, · · · , n}. Si x = (a1 , · · · , an ) y y = (b1 , · · · , bn ), se pueden definir
la suma ⊕ como x ⊕ y = (a1 + b1 , · · · , an + bn )
el producto ⊙ como a ⊙ x = (a · a1 , · · · , a · an )
3. SUBESPACIOS VECTORIALES
31
entonces (V, ⊕) es grupo abeliano con neutro 0V = (0, · · · , 0) e inverso (−x) =
(−a1 , · · · , −an ).
Uno de los espacios vectoriales más usados y más importantes que se utiliza en
todas las áreas de la ingenierı́a, fı́sica, matemáticas, etc. son los polinomios. Como
espacios vectoriales estos se pueden definir como seigue.
Ejemplo 2.4. Sea Pn = {a0 + a1 x + a2 x2 + · · · + an xn | ai ∈ K para todo
i = 1, · · · , n} el conjunto de los polinomios sobre el campo K. Si se define la
suma ⊕ entre polinomios x, y ∈ Pn , con x = a0 + a1 x + a2 x2 + · · · + an xn y
y = b0 + b1 x + b2 x2 + · · · + bn xn como:
x ⊕ y = (a0 + b0 ) + (a1 + b1 ) x + · · · + (an + bn ) xn
el producto ⊙ como
a ⊙ x = a · a0 + a · a1 x + · · · + a · an xn
entonces (K, Pn , ⊕, ⊙) es un espacio vectoral.
Notación 2.5. En lo que sigue, generalmente vamos a denotar las operaciones
⊕ y ⊙ en el espacio vectoral, simplemente como + y · respectivemente y al espacio
vectorial simplemente como V .
Ejemplo 2.6. El conjunto de funciones periódicas Fp , con la suma y el producto
de funciones, también es un espacio vectorial.
Ejercicio 2.7. Demuestre con todo detalle que K n es espacio vectorial.
Ejercicio 2.8. Sea P = {p(x) |polinomio de grado n}. Demuestre que P es
un espacio vectorial con las operaciones estandard entre polinomios.
Ejercicio 2.9. Sea H1 = {h(t) | h(t) = a1 cos(ωt) + a2 cos2 (ωt) + · · · +
an cosn (ωt)}. Demuestre que H2 es un espacio vectorial con las operaciones estandard entre polinomios.
Ejercicio 2.10. Sea H2 = {h(t) | h(t) = a1 cos(ωt) + a2 cos(2ωt) + · · · +
an cos(nωt)}. Demuestre que H2 es un espacio vectorial con las operaciones estandard entre polinomios.
3. Subespacios Vectoriales
En la misma forma como hemos definido subgrupos y subanillos, se puede
definir subespacios vectoriales. Este concepto será el tema de esta sección. Su
definición formal es como sigue.
Definición 2.11. Sea V un espacio vectorial sobre un campo K y H ⊆ V.
H es un subespacio Vectorial de V, si H es espacio vectorial con las mismás
operaciones binarias.
Para demostrar que un espacio vectorial es subespacio de otro, afortunadamente
no es necesario probar todas las propiedades de espacio vectorial del subconjunto,
es suficiente con ver que las dos operaciones del subconjunto son cerradas, esto
es debido a que las operaciones ya cumplen con todas las propiedades de espacio
vectorial de entrada. Esta propiedad la enunciaremos como el siguiente lema.
32
2. ESPACIOS VECTORIALES
Lema 2.12. Sea V espacio vectorial sobre un campo K y H ⊆ V . H es subespacio Vectorial de V si
1) Para todos h1 , h2 ∈ H implica que h1 + h2 ∈ H
2) Para todos a ∈ K, h ∈ H implica que a · h ∈ H
Demostración 2.13. Se cumplen todas las propiedades de espacio vectorial.
Ejemplo 2.14. Sea el plano ℜ2 y H 1 = {(a, b) ∈ ℜ2 | b = ma} con m ∈ ℜ
una recta que pasa por el origen. Veamos que una recta que pasa por el origen
es subespacio vectorial del plano. Usemos el lema anterior. Entonces (a1 , b1 ) +
(a2 , b2 ) = (a1 + a2 , ma1 + ma2 ) = (a1 + a2 , m(a1 + a2 )) ∈ H 1 . Es decir, es
cerrado para la suma. Por otro lado se tiene que a · (a1 , b2 ) = (a · a1 , a · b1 ) =
(a · a1 , a · (m · a1 )) = (a · a1 , m · (a · a1 )) ∈ H 1 , por lo que la recta también es cerrada
para el producto. Entonces esta recta es un subespacio de ℜ2 .
Ejemplo 2.15. Sea H 2 = {(a, b) ∈ ℜ2 | b = ma + n}, con m, n ∈ ℜ pero
m · n 6= 0 una recta que no pasa por el origen. ¿Es H 2 ⊆ ℜ2 un subespacio vectorial
del plano? Veamos esto, si (a1 , b1 ) + (a2 , b2 ) = (a1 + a2 , m(a1 + a2 ) + 2n) ∈
/ H 2,
este punto no está en la misma recta. Entonces una recta que no pasa por el origen
no es subespacio vectorial de plano.
Ejemplo 2.16. Sea H 3 = {(a, b) ∈ ℜ2 | b = na} ¿Es H 1 ∪ H 3 ⊆ ℜ2 un
subespacio vectorial del plano? Para ver esto, sean x1 = (a1 , b1 ) ∈ H 1 y x2 =
(a2 , b2 ) ∈ H 3 , entonces se tiene que x1 + x2 = (a1 + a2 , ma1 + na2 ) ∈
/ H 1 ∪ H 3,
1
3
el cual no está en la unión. Por lo tanto H ∪ H no es subespacio vectorial del
plano.
Generalmente la unión de espacios vectoriales no siempre es un espacio vectorial, pero la intersección sı́, ya que si
1) x, y ∈ H1 ∩ H2 esto implica que x, y ∈ H1 y x, y ∈ H2 y esto implica que
x + y ∈ H1 ∩ H 2
2) a ∈ K y x ∈ H1 ∩ H2 esto implica que a · x ∈ H1 y a · x ∈ H2 esto implica
que a · x ∈ H1 ∩ H2
Entonces podemos escribir el siguiente
Lema 2.17. La intersección de espacios vectoriales, es espacio vectorial.
Ejercicio 2.18. Digan si el plano P1 = {(x, y, z) | 3x + 2y − 3z = 0} y el plano
P2 = {(x, y, z) | 3x + 2y − 3z = 1} son subespacios de ℜ3 .
4. Homomorfismos
Los homomorfismos son una herramienta de mucha ayuda en espacios vectoriales. Para estudiar las propiedades de espacio vectorial, el espacio ℜn es sin duda
el más estudiado y el más simple. Basta entonces relacionar todos los espacios
homomorfos e isomorfos con el plano n-dimensional para haberlos estudiado todos.
Pero la sorpresa es que todos los espacios vectoriales de la misma dimensión, son
isomorfos. Esta es la razón por cuál el plano n-dimensional es tan interesante. Para
ver esto, iniciemos con la siguiente definición:
Definición 2.19. Sean (V1 , ·, +1 , ⊙1 ) y (V2 , ·, +2 , ⊙2 ) espacios vectoriales sobre
K. Un homomorfismo entre V1 y V2 es un mapeo que preserva las operaciones, es
4. HOMOMORFISMOS
33
decir f : V1 ⇀ V2 se llama homomorfismo si
f (x +1 y)
f (a ⊙1 x)
=
=
f (x) +2 f (y)
a ⊙2 f (x) para toda x, y ∈ V1 y a ∈ K
Como siempre, f se llama:
· isomorfismo, si f es homomorfismo y biyección
· automofismo, si f es homomorfismo y V1 = V2
Notación 2.20. Dos espacios vectoriales se llaman isomorfos, si existe
un isomorfismo entre ellos, se escribe V1 ∼
= V2
Un ejemplo sencillo e ilustrativo usando planos n-dimensionales es el siguiente.
Ejemplo 2.21. Sea V1 = ℜn , y V2 = ℜn+1 . El mapeo f : ℜn ⇀ ℜn+1 tal que
f ((a1, · · · , an )) = (a1, · · · , an , 0) es un homomorfismo 1 − 1 pero no sobre, ya que
ningún (a1 . · · · , an , an+1 ) con an+1 6= 0 es imagen de algún x ∈ ℜn .
Algunas de las propiedades generales de los homomorfismos es que estos mapean
el cero en el cero y los inversos en los inversos, veamos esto.
Comentario 2.22. Sean V1 y V2 espacios vectoriales y f : V1
homomorfismo entre ellos, entonces
f (0V1 )
⇀ V2 un
= 0V2 , ya que f (0 · x) = 0 · f (x)
f (−x) = −f (x) para toda x ∈ V1 ya que f (x − x) = f (x) + f (−x)
Otra propiedad importante de los espacios vectoriales, es que bajo homomorfismos se conservan las propiedades de subespacio, esto es
Comentario 2.23. f (V1 ) es subespacio de V2 .
Incluso si H es subespacio de V1 , se tiene que f (H) es subespacio de V2 , ya que
si x2 , y2 ∈ f (H), y a ∈ K, esto implica que existen x1 , y1 ∈ H con f (x1 ) = x2 y
f (y1 ) = y2 , tal que x2 + y2 = f (x1 + y1 ) ∈ f (H) y a · x2 = f (a · x1 ) ∈ f (H). Esto
da pie al siguiente
Lema 2.24. Sean V1 y V2 espacios vectoriales. Sea H ⊂ V1 y f : V1 ⇀ V2
homomorfismo. Entonces f (H) ⊂ V2
Una relación muy importante entre espacio vectoriales es la relación de ser
isomórficos, esta relación es una relación de equivalencia y por tanto separa los
espacios vectoriales en clases de equivalencia en el conjunto de espacios vectoriales.
Esta separación es muy importante porque al separar este espacio en clases, limita
el estudio de los espacios vectoriales a sólo estudiar un representante de cada clase
de estos. Para esto tenemos el siguiente lema:
Lema 2.25. Sean V1 , V2 y V3 espacios vectoriales y f : V1 ⇀ V2 y g : V2 ⇀ V3
isomorfismos. Entonces
a) f −1 es isomorfismo
b) f ◦ g es isomorfismo.
Ejercicio 2.26. Demostrar el lema.
Lema 2.27. Sean V1 y V2 espacios vectoriales. La relación V1 ∼ V2 sii V1 ∼
= V2
son isomorfos, es una relación de equivalencia.
34
2. ESPACIOS VECTORIALES
Demostración 2.28. Veamos que ∼ cumple la definición de relación de equivalenca.
1) V1 ∼ V1 , ya que la identidad en V1 es un isomorfismo.
2) Si V1 ∼ V2 , si usamos la inversa del isomorfismos se tendra que V2 ∼ V1 .
3) Si V1 ∼ V2 y V2 ∼ V3 , usando la composición de isomorfismo, tendremos
que V1 ∼ V3 . Ejercicio 2.29. Digan en que casos las siguientes funciones son homomofismos:
1.- f : ℜ3 → ℜ2 , tal que f ((x, y, z)) = 2(x, y).
2.- f : ℜ3 → ℜ2 , tal que f ((x, y, z)) = (x − z, y + z).
3.- f : ℜ2 → ℜ2 , tal que f ((x, y)) = (x2 , y).
5. Independencia Lineal y Bases
El concepto de independencia lineal se basa en el simple hecho de cómo poder
escribir un conjunto de vectores en términos del mı́nimo posible de vectores de otro
conjunto. La pregunta que está detrás de este concepto es ¿cuál es el mı́nimo número
de vectores con el que yo puedo representar todos los vectores de algún espacio o
subespacio vectorial? Entonces, el primer problema que tenemos, es encontrar este
número y luego encontrar un conjunto mı́nimo de vectores. Cuando esto se puede
hacer, podremos trabajar en muchas ocasiones sólo con estos vectores, sin tomar
en cuenta todo el espacio. Vamos a iniciar con la siguiente definición:
Definición 2.30. Sea V espacio vectorial sobre el campo K y X ⊆ V . En
general X no necesariamente subespacio vectorial de V . Un elemento de V de la
forma
m
X
ai · xi , ai ∈ K, x, xi ∈ X todos distintos
x=
i=1
se llama combinación lineal de los elementos x1 , · · · , xm de X.
Con esta definición podemos construir un subespacio vectorial. Para eso definamos la cerradura lineal de un conjunto de vectores.
Definición 2.31. Al conjunto de todas las combinaciones lineales de un conjunto, es decir, al conjunto
L(X) := {x =
n
X
i=1
ai · xi | ai ∈ K, xi ∈ X elementos distintos}
se le llama cerradura lineal de X
Lema 2.32. Sea V espacio vectorial y X ⊂ V . L(X) es un subespacio de V .
Pn
Pn
ai xi y y = P
Demostración 2.33. Sean
i=1 bi · xi , con xi ∈ X y
Pn x = i=1P
n
n
xi + i=1 bi · xP
ai , bi ∈ K. Entonces x + y = i=1 ai · P
i =
i=1 (ai + bi ) · xi ∈ L(X)
n
n
ya que ai + bi ∈ K. Además a · x = a · i=1 ai · xi = i=1 a · ai · xi ∈ L(X) ya que
a · ai ∈ K. Entonces x + y y a · x ∈ L(X) para todos los vectores x, y ∈ L(X), con
a ∈ K. Esto implica que L(X) es el subespacio mı́nimo de V que contiene a X. Corolario 2.34. Sea V espacio vectorial y X ⊂ V . Si X es subespacio de V,
se sigue entonces que L(X) = X.
5. INDEPENDENCIA LINEAL Y BASES
35
Demostración 2.35. X ⊆ L(X) ya que si x ∈ X, esto implica que x =
a1 · x1 + · · · + an · xn = 1 · x ∈ L(X). Por otro lado, si x ∈ L(X), se tiene que
x = a1 · x1 + · · · + an · xn con xi ∈ X y como X es subespacio, se sigue que
a1 · x1 + · · · + an · xn ∈ X. Vamos a ver algúnos ejemplos de lo anterior.
Ejemplo 2.36. .
a) H 1 = {(a, b) ∈ ℜ2 | a, b ∈ ℜ, b = am} una recta que pasa por cero en ℜ2 .
Se tiene:
L(H 1 ) = {x = a1 (a, am) | a, m, a1 ∈ ℜ} = H 1
b) H 2 = {(a, b) ∈ ℜ2 | a, b ∈ ℜ, b = am + n, m · n 6= 0} una recta que no pasa
por el origen. Entonces:
L(H 2 ) =
=
{x = a1 (a, am + n) | a1 b, m, n ∈ ℜ}
{x = (a1 a, a1 am + a1 n) | a1 , b, m, n ∈ ℜ} = ℜ2
Por lo que, una recta que no pasa por el origen, no es un subespacio, genera ℜ2 .
Con esto ya podemos introducir el concepto de independencia lineal.
Definición 2.37. Sea V espacio vectorial sobre el campo K y X ⊂ V un
subconjunto arbitrario de V . X se llama linealmente independiente
Pn si para
cualquiera elementos distintos x1 , x2 , · · · , xn ∈ X se tiene que 0V = i=1 ai · xi ,
ai ∈ K, implica que necesariamente a1 = a2 = · · · = an = 0K .
X se llama linealmente
dependiente si X no es linealmente independiente.
Pn
Es decir, si 0V = i=1 ai · xi implica que al menos un aj 6= 0. En tal caso 0V = aj ·
P
Pn
xj + ni=1,i6=j ai ·xi de donde podemos despejar xj como xj = −a−1
j
i=1,i6=j ai ·xi .
O sea, xj depende de todas los demás vectores en forma lineal.
Notación 2.38. Cuando un conjunto de vectores sean linealmente independientes, diremos que son l.i.
Al número minimo de vectores con los que podemos escribir todos los vectores
de algún espacio o subespacio, se le llama base. Su definición es como sigue.
Definición 2.39. Sea V espacio vectorial sobre el campo K y X ⊂ V . X se
llama base de V si
1) L(X) = V
2) X es linealmente independiente.
Esto es ası́ ya que 1) asegura la representatividad de cada x ∈ V por combinación lineal de los elementos de
PnX. Es decir, L(X) ⊂ V implica que x ∈ L(X),
lo podemos escribir como x = i=1 ai · xi con cada xi ∈ X y cada ai ∈ K, pero
además x ∈ V. Por otro lado, V ⊆ L(X)
Pn implica que si x ∈ V entonces x ∈ L(X),
esto es, x se puede escribir como x = i=1 ai · xi ∈ L(X) siempre.
Pn
i=1 ai · xi y x =
Pn 2) asegura que la representaciónPesn única, ya que x =
b
·
x
,
entonces
x
−
x
=
0
=
(a
−
b
)
·
x
lo
que
implica
que ai = bi
i
i
V
i
i
i
i=1
i=1
Vamos a ver un ejemplo muy representativo.
36
2. ESPACIOS VECTORIALES
Ejemplo 2.40. V = K n Si definimos
(2.1)
n
e1
e2
=
=
(1K , 0K , · · · , 0K )
(0K , 1K , · · · , 0K )
..
.
en
=
(0K , 0K , · · · , 1K )
es una base en K . Es decir, el conjunto E = {e1 , · · · , en } genera todo el espacio
K n = L(E), ya que x = (a1 , · · · , an ) = a1 · e1 + · · · + an · en ∈ L(E). Por otro lado,
E es linealmente independiente, ya que 0V = a1 · e1 + · · · + an · en = (a1 , · · · , an ) =
(0K , · · · , 0K ) implica ai = 0, para toda i. Entonces K n siempre tiene una base. Al
conjunto (2.1) se le llama base canónica de K n y su dimensión es n.
Ejemplo 2.41. Sea Pn el espacio vectorial de los polinomios de grado n. Entonces, una base de Pn es En = {1, x, x2 , · · · , xn }. Claramente la dimensión del
espacio Pn es n + 1.
Ejemplo 2.42. En el espacio de las funciones periódicas Fp , el conjunto Ep =
{1, cos(θ), cos(2θ), cos(3θ), · · · }, es una base de este espacio vectorial. La dimensión
del espacio Fp es infinita.
En todo espacio vectorial es posible definir una base. La base canónica es, desde
muchos puntos de vista, la más simple. Este hecho lo ponemos en el siguiente lema.
Lema 2.43. Todo espacio vectorial contiene una base.
La demostración de este lema la dejaremos para libros mas especializados. Aún
más fuerte que este lema (y también enunciaremos sin demostración), es el hecho
de que para todo espacio vectorial siempre existe una base de éste y el número de
vectores de dos bases diferentes es siempre el mismo.
Proposición 2.44. Sea V espacio vectorial sobre K y sean X ⊆ V y Y ⊆ V
dos bases de V . Si X es finito, implica que Y es finito y tiene el mismo número de
elementos que X.
En base a esta proposición, es posible entonces hacer la siguiente definición:
Definición 2.45. La dimensión de un espacio vectorial V es el número de
elementos de la base de V .
Notación 2.46. La dimensión de V se denota como dim V = n.
El concepto de dimensión esta basado entonces en la existencia de un espacio
vectorial y por tanto, del número de vectores de su base. Vamos a ver algunos
ejemplos para dejar más claro este concepto.
Ejemplo 2.47. dim K n = n pues se necesitan n elementos {ei }ni=1 para representar todo el espacio.
Ejemplo 2.48. Sea H 1 = {(a, am)} ⊆ ℜ2 . Una base de H 1 es X = {(1, m)},
entonces se tiene que dim X = 1. Esto implica a su vez que dim H 1 = 1.
Ejemplo 2.49. Sea V = {0V }, se tiene que dim V = 0
Ejercicio 2.50. Sean los planos del ejercicio 2.18. Encuentre una base vectorial para el plano que es subespacio de ℜ3 .
6. TRANSFORMACIONES LINEALES
37
Ejercicio 2.51. Den una base para el espacio P del ejercicio 2.8.
Ejercicio 2.52. Den una base para el espacio H1 del ejercicio 2.9 y otra para
el espacio H2 del ejercicio 2.10.
Ejercicio 2.53. Demuestren que H1 = H2 . De una fórmula para representar
las bases de los dos conjuntos hasta n = 5.
6. Transformaciones Lineales
Los homomorfismos entre espacios vectoriales son de tal importancia, que incluso reciben un nombre especial. En esta sección veremos estos homomorfismos,
sus propiedades más importantes y algúnos ejemplos representativos de homomorfismos entre espacios vectoriales.
Definición 2.54. Sean V1 y V2 espacios vectoriales sobre el mismo campo K.
Se define el conjunto Hom(V1 , V2 ) = {f : V1 ⇀ V2 | f es homomorfismo}
Notación 2.55. A los homomorfismo entre espacios vectoriales se les llama
transformaciones lineales o mapeos lineales y se denotan por L(V1 , V2 ) :=
Hom(V1 , V2 )
Vamos a escribir explı́citamente el concepto de transformación lineal. Sea f ∈
L(V1 , V2 ), esto implica que la suma y el producto en los espacios se conservan
bajo f , esto es f (x + y) = f (x) + f (y) para todos los vectores x, y ∈ V1 y
f (k · x) = k · f (x) para todo k ∈ K, x ∈ V2 . Si ahora tomamos como conjunto base
al conjuto de todas las transformaciones lineales, podemos introducir en L(V1 , V2 )
la estructura de espacio vectorial. Vamos a definir entonces la suma y el producto
como
(f ⊕ g)(x) =
(k ⊙ f )(x) =
f (x) + g(x)
k · f (x) k ∈ K, x ∈ V1
y observemos que (f ⊕ g) ∈ L(V1 , V2 ), ya que + está definida en V2 . Ası́ mismo
(k ⊙ f ) ∈ L(V1 , V2 ) ya que · está definido en K × V2 → V2 . Entonces se tiene que
f ⊕ g y k ⊙ f son mapeos de V1 en V2 . Éste es un resultado muy importante, porque
con él tenemos el siguiente lema.
Lema 2.56. Sean V1 y V2 espacios vectoriales. Entonces (L(V1 , V2 ), ·, ⊕, ⊙) es
un espacio vectorial sobre K
Ejercicio 2.57. Demostrar el lema.
La pregunta que surge inmediatamente después de definir los mapeos lineales, es
si la composición de mapeos lineales es también lineal y forma un espacio vectorial.
Para ver esto, sean f ∈ L(V1 , V2 ) y g ∈ L(V2 , V3 ) y g ◦ f : V1 ⇀ V3 Para ver si
g ◦ f ∈ L(V1 , V3 ), hay que checar las propiedades de espacio vectorial, dado que
f y g son lineales. Sean x, y ∈ V1 entonces la suma cumple con (g ◦ f )(x + y) =
g(f (x) + f (y)) = g ◦ f (x) + g ◦ f (y), por la propiedades de linearidad de ambas
funciones. Análogamente, sean x ∈ V1 , k ∈ K, entonces (g ◦ f )(k ·x) = g(f (k ·x)) =
g(k · f (x)) = k · (g ◦ f )(x), por lo que ambas propiedades se cumplen.
Otro caso interesante es cuando ambos espacios, el de salida y el de llegada son
el mismo, i.e., cuando V1 = V2 = V , entonces, claramente L(V, V ) es un espacio
vectorial sobre K con las operaciones + y · sobre V . Además, si f, g ∈ L(V, V )
implica que f ◦ g ∈ L(V, V ). Algunas propiedades de estos espacios son:
38
2. ESPACIOS VECTORIALES
a) Sea k ∈ K, y f, g ∈ L(V, V ) entonces k · (g ◦ f ) = (k · g) ◦ f = g ◦ (k · f ) ya
que para para toda x ∈ V se tiene que
[k · (g ◦ f )](x) = k · (g ◦ f )(x)
= k · g(f (x)) = (k · g) · (f (x)) = [(k · g) ◦ f ](x)
= g(k · f (x)) = g((k · f )(x)) = [g ◦ (k · f )](x)
b) Como ◦ es asociativo para todo mapeo, entonces es asociativo para las
transfomaciones lineales.
c) (g + h) ◦ f = g ◦ f + h ◦ f es distributiva, para f, g, h ∈ L(V, V ).
b), c) y la cerradura para ◦ implican que (L(V, V ), +, ◦) es un anillo.
7. Álgebras
La última estructura algebraica que veremos aquı́ es la de álgebra. Las álgebras
son más ricas en estructura que los espacios vectoriales, ya que en estas se definen
tres operaciones binarias. Para definir las álgebras usaremos el concepto de módulo.
Al igual que en los espacios vectoriales, los módulos se definen usando dos operaciones binarias definidas en el conjunto con propiedades especiales. La definición
de un módulo es la siguiente.
Definición 2.58. Sea K anillo. (V, ⊕, ⊗) se llama módulo sobre K si:
1) (V, ⊕) grupo abeliano
2) ⊗ es mapeo de K × V en V, y para toda a, b ∈ K, y para toda x, y ∈ V se
tiene:
a) (a · b) ⊗ x = a ⊗ (b ⊗ x) es asociativa,
b) a ⊗ (x ⊕ y) = (a ⊗ x) ⊕ (a ⊗ y)
c) (a + b) ⊗ x = (a ⊗ x) ⊕ (b ⊗ x) son distributivos.
Es decir, un módulo consiste de un anillo K, de un grupo abeliano y de una
operación que combina elementos de K y V . Con este concepto es más sencillo
definir álgebra. Es más, un espacio vectorial, es un módulo muy particular, se
tiene:
que:
Corolario 2.59. Un módulo (V, ⊕, ⊗) es un espacio vectorial, si se cumple
a) K es un campo o semicampo.
b) 1K ⊗ x = x para toda x ∈ V.
Usando la definición de módulo, podemos definir el concepto de álgebra.
Definición 2.60. Una estructura (A, +, ·, ◦) sobre K se llama álgebra si
1) K es anillo conmutativo con unidad
2) (A, +, ·) módulo sobre K, con 1K · x = x, para toda x ∈ A
3) ◦ es mapeo de A × A en A con las propiedades
a) k · (x ◦ y) = (k · x) ◦ y = x ◦ (k · y) para toda k ∈ K x, y ∈ A
(asociatividad).
b) z◦ (x+ y) = z◦ x+ z◦ y; (x+ y)◦ z = x◦ z+ y ◦ z, para todos x, y, z ∈ A
(distributividad).
Ejemplo 2.61. Sea V espacio vectorial sobre el campo K, x ∈ V y k ∈ K.
L = (L(V, V ), +, ·, ◦) es un álgebra sobre el campo K con las siguientes operaciones
en L(V, V ).
+ : L(V, V ) × L(V, V )
⇀ L(V, V )
(f, g) → (f + g)(x) = f (x) + g(x),
7. ÁLGEBRAS
39
· : K × L(V, V ) ⇀ L(V, V )
(k, g) → (k · f )(x) = k · f (x),
◦ : L(V, V ) × L(V, V )
para todas las f, g ∈ L(V, V ).
⇀ L(V, V )
(f, g) → (f ◦ g)(x) = f (g(x)).
Corolario 2.62. L es una álgebra asociativa (◦ es asociativa), no-conmutativa
(◦ no es conmutativa), con unidad (◦ tiene unidad, el mapeo identidad).
Ejemplo 2.63. Sea K campo y K 3 , +, · su espacio vectorial asociado. Entonces el espacio vectorial K 3 , con el producto cruz entre vectores definido por:
x × y = (a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ) para x = (a1 , a2 , a3 ), y =
(b1 , b2 , b3 ), es un álgebra no conmutativa, asociativa.
Ejercicio 2.64. Demostrar con todo detalle que K 3 , +, ·, × , donde × es el
producto cruz entre vectores, es una álgebra.
0 −r
Ejercicio 2.65. Sea o(2) = {o | o es matriz 2 × 2 con o =
con
r 0
r ∈ ℜ}. Demuestre que este conjunto es una álgebra con las operaciones de matrices.
r
z
Ejercicio 2.66. Sea su(2) = {u | u es matriz 2 × 2 con u =
con
z ∗ −r
r ∈ ℜ y z número complejo}. Demuestre que este conjunto es una álgebra con las
operaciones de matrices.
CHAPTER 3
MATRICES
1. Mapeos Lineales y Matrices
En esta sección vamos a introducir los arreglos matriciales. Las matrices son
arreglos que se usan en muchas áreas de la fı́sica, quı́mica, las matemáticas, la
computación, etc. Muchas cantidades en todas estas áreas son arreglos que pueden
ser representados como matrices. El uso más importante que se le ha dado a las
matrices es porque los sistemas de ecuaciones lineales pueden ser representados
en forma matricial, y las matrices son una herramienta perfecta para ayudar a
resolverlos. Una matriz puede ser definida por sı́ misma, sin necesidad de ser basada
en otras definiciones. La existencia de estos arreglos es independiente del álgebra
lineal, sin embargo nosotros les daremos un sentido muy claro introduciendolos
como representaciones naturales de los mapeos lineales. Con esta analogı́a será más
fácil introducir después conceptos que se usan en matrices como rango, dimensión,
etc. Iniciemos entonces con este concepto.
Sean V1 y V2 espacios vectoriales de dimensión finita bajo un campo K, tal
que dim V1 = m y dim V2 = n, entonces existen bases tales que {x1 , x2 , · · · , xm }
es base de V1 y {y1 , y2 , · · · , yn } es base de V2 . Sea f ∈ L(V1 , V2 ) con x ∈ V1 y
f (x) = y ∈ V2 , con
m
X
aj xj
x=
j=1
siendo, además, la representación única de x en esa base, con aj ∈ K para todo
j = 1, · · · , m. Si mapeamos linealmente al elemento x al espacio vectorial V2 ,
encontramos que
(3.1)
f (x) =
m
X
aj f (xj ).
j=1
Pn
Por otro lado, también y = i=1 bi yi tiene una representacion única en V2
en términos de los números bi ∈ K con i = 1, · · · ., n. Como esta representación
es única, se tiene entonces que hay una relación directa entre los números aj y bi .
Para ver esta relación, mapeamos linealmente el elemento base xk al espacio V2 . Se
tiene que f (xk ) ∈ V2 entonces
(3.2)
f (xk ) =
n
X
cik yi
i=1
En términos de estos números cik ∈ K podemos escribir el elemento x sustituyendo la expresión (3.2) en (3.1), se obtiene
41
42
3. MATRICES
f (x) =
m
X
aj
a1
n
X
i=1
=
m
n X
X
i=1 j=1
=
cij yi
i=1
j=1
=
n
X
ci1 yi
!
!
=
aj cij yi = 
bi yi = y
i=1
+ a2

n
X
n
X
i=1
m
X
j=1
ci2 yi

!
+ · · · + am

aj c1j  y1 + 
b1 y1 + b2 y2 + · · · + bn yn ,
m
X
j=1
n
X
i=1

cim yi
!

aj c2j  y2 + · · · + 
m
X
j=1

aj cnj  yn
P
pero como la representación es única, se debe tener que bi = m
j=1 cij aj , es decir,
los coeficientes de y son totalmente determinados por los coeficientes de ak y los
coeficientes cik ∈ K. Estos coeficientes cik los podemos ordenar en la forma más
conveniente


c11 c12 · · · c1m
 c21 c22 · · · c2m 


C= .


 ..
cn1 cn2 · · · cnm
y se llama matriz asocidada al mapeo f ∈ L(V1 , V2 ). Noten que estos coeficientes
dependen fuertemente de las bases usadas, pero cada par de bases en V1 y V2 fijan
k=1···m
y determinan unicamente el arreglo (matriz) C, del tipo C = (cik )i=1···n , del
tipo (n, m), (n renglones o lı́neas y m columnas). Analogamente, cada matriz C
determina unicamente el mapeo f ∈ L(V1 , V2 ). Por eso vamos a describir mapeos
lineales con matrices y vamos a asocior a cada matriz un mapeo lineal.
Si escribimos




a1
b1
 a2 
 b2 




x= .  y y= . 
 .. 
 .. 
am
bn
entonces Cx = y y f (x) = y corresponden a la aplicación del mepeo lineal f
a x, siendo ambas expresiones equivalentes. Transportemos las operaciones entre
mapeos a operaciones entre matrices. Vamos a ver esto con detalle.
Sean f, g ∈ L(V1 , V2 ), k ∈ K y x ∈ V1 , tal que


a1


x =  ...  ,
am
Entonces se tiene:
1.- La suma de mapeos se traduce a la suma de matrices, es decir (f + g)(x) =
f (x) + g(x), si a f corresponde la matriz C y a g la matriz D, se tiene que a
f + g corresponde a la matriz C + D. (C + D)(x) = Cx + Dx con la suma entre
matrices dada por (C + D) = cij + dij , donde ckj y dij son los coeficientes de C y
D repectivamente.
2. ISOMORFISMOS
43
2.- Al producto de un número por el mapeo lineal, corresponde el producto de
un número por la matriz que representa al mapeo de la forma (kf )(x) = k · f (x).
Si B corresponde a (kf ), entonces Bx = k · Cx con el producto dado por bij = kcij
3.- Sean f ∈ L(V1 , V2 ) y g ∈ L(V2 , V3 ), esto implica que g ◦ f ∈ L(V1 , V3 ). A la
composición de mapeos corresponde el producto entre matrices,
Pn es decir (g ◦f )(x) =
g(f (x)) corresponde a B · C = D entre matrices, con dij = k=1 bik ckj , donde bik ,
ckj y dij son los coeficientes de B, C y D repectivamente.
Ejercicio 3.1. Demuesten los puntos 1.-, 2.- y 3.- anteriores.
2. Isomorfismos
En esta sección, trataremos particularmente con los mapeos lineales uno a uno
y sobre, los isomorfismo. Estos mapeos son muy importantes porque de ellos se
desprenden teoremas que pueden ser traducidos directamente a las matrices, que a
su vez se traducen en teoremas que serviran para resolver sistemas de ecuaciones
lineales. Estos sistemas son uno de los objetivos de este capitulo. Asi que veamos
las proposiciones correspondientes a isomorfismos. Empecemos por definir el Kernel
o núcleo de un mapeo lineal. En lo que sigue V1 y V2 son espacios vectoriales sobre
un cuerpo K.
Definición 3.2. Sea f ∈ L(V1 , V2 ) (no necesariamente biyectiva). El núcleo
de f es el conjunto ker f = {x ∈ V1 | f (x) = 0V2 }
Lema 3.3. Sea f ∈ L(V1 , V2 ). Si ker f es subespacio vectorial de V1 , entonces
f (V1 ) es subespacio vectorial de V2 .
Ejercicio 3.4. Demostrar el lema.
El lema anterior es válido para cualquier mapeo. Si especializamos este lema a
los isomorfismos, se tiene este otro lema.
Lema 3.5. Sea f ∈ L(V1 , V2 ). Si f es isomorfismo implica que ker f = {0V1 }.
Demostración 3.6. Es claro que 0V1 ∈ ker f , ya que f (0V1 ) = f (x − x) =
f (x) − f (x) = 0V2 , con x ∈ V1 . Por otro lado, cualquier elemento x ∈ ker f cumple
con f (x) = 0V2 . Si hubiera un elemento x ∈ V1 con x 6= 0V1 tal que x ∈ ker f ,
entonces f (x) = f (0V1 ) = 0V2 , lo cual contradice que f es un mapeo inyectivo. Comentario 3.7. Si el ker f = {0V1 }, ya sabemos entonces que dim ker f = 0
En lo que sigue vamos a ver una proposión que nos ayudará a demostrar algúnos
resultados posteriores.
Proposición 3.8. Sean V1 y V2 espacios vectoriales sobre el campo K. Sea
{x1 , · · · , xm } base de V1 y sea f ∈ L(V1 , V2 ).
i) Si f es sobre, implica que V2 = L({f (x1 ), f (x2 ), · · · , f (xm )})
ii) Si f es isomorfismo, implica que {f (x1 ), · · · , f (xm )} es base de V2
Demostración 3.9. Denotamos a M = {f (x1 ), · · · , f (xm )}
i)
que existe x ∈ V1 , tal que f (x) = y, pero
P⊆: Sea y ∈ V2 , f sobre implica P
m
x= m
a
x
implica
que
y
=
f
(x)
=
i
i
i=i
Pm i=i ai f (xi ) ∈ L(M ).
⊇: Sea y ∈ L(M ) se tiene y = i=i ai f (xi ) ∈ V2 pues V2 es espacio vectorial.
ii) En particular f sobre implica que V2 = L(M
P),r ya que M ⊆ V2 . Demostremos
que M es linealmente independiente. Sea 0V2 = i=i ai yi con elementos distintos
44
3. MATRICES
y1 , · · · , yr , de M, con r ≤ m. f sobre implica que existe xi ∈ V1 tal que yi = f (xi ),
y f mapeo implica que los xP
1 , · · · , xr también son
Prdistintos (xi = xj implica
Pr f (xi ) =
r
a
f
(x
)
=
f
(
a
x
),
por
lo
que
f (xj )). Entonces 0V2 =
i
i
i
i
i=i
i=1
i=1 ai xi ∈
P
ker f está en el núcleo de f . f uno a uno implica que 0V1 = ri=1 ai xi es una
representacion del 0 en V1 con distintos x1 , · · · , xr con r ≤ m. Pero {x1 , · · · , xm }
es una base, entonces se tiene que ai = 0 para toda i = 1, · · · , r. Corolario 3.10. Sea f ∈ L(V1 , V2 ) con dim V1 = n. Entonces f es isomorfismo sı́ y sólo sı́ dim f (V1 ) = n
Demostración 3.11. f isomorfismo implica que f es 1-1 y sobre. Sea {x1 , . . . , xn }
una base de V1 . Entonces f (a1 x1 + · · · + an xn ) = a1 f (x1 ) + · · · + an f (xn ) = 0
implica que a1 = · · · = an = 0, y como f es un isomorfismo, esto implica que
f (x1 ), . . . , f (xn ) son todos diferentes y forman una base de f (V1 ), por lo que
dim f (V1 ) = n. El corolario anterior nos da un criterio para saber si un mapeo es isomorfismo o
no. Este criterio también lo podemos obtener usando otra definición útil para esto.
Definición 3.12. El Rango de un mapeo lineal f ∈ L(V1 , V2 ) se define como
Rgf := dim f (V1 )
Podemos traducir el corolario anterior a esta terminologı́a. Se tiene que f
es isomorfismo sı́ y sólo sı́ Rgf = dim V1 . El problema de saber si un mapeo es
isomorfismo o no, se reduce entonces a determinar el rango del mapeo. Vamos a
determinar Rgf. Para esto tenemos la siguiente proposición.
Proposición 3.13. Sea f ∈ L(V1 , V2 ) y X una base de V1 . Entonces el Rgf =
Rg(f (X)) = dim L(f (X)).
Demostración 3.14. Como X es base de V1 , se tiene que si X = {x1 , . . . , xn },
se sigue que f (X) = {f (x1 ), . . . , f (xn )} existen al menos m < n elementos de f (X)
que son l.i., es decir, dim f (X) = m. Sea u ∈ f (V1 ), implica que existe v = a1 x1 +
· · · + an xn ∈ V1 , tal que u = f (v) = a1 f (x1 ) + · · · + an f (xn ), de donde aparecen
al menos m componentes diferentes en la suma. Por lo que dim f (V1 ) = m =
dim f (X). De aqui se sigue que Rgf = dim f (V1 ) = dim f (X). También se tiene
que L(f (X)) = f (V1 ), entonces por definición Rgf = dim f (V1 ) = dim L(f (X)) Aquı́ estamos usando de una manera análoga la definición de rango del conjunto
de vectores M como Rg (M ) := dim L(M ), la dimensión de la cubierta lineal.
Entonces, para saber el rango de una transformación, es suficiente con determinar
el rango del conjunto de vectores de algúna base de V1 .
Ahora vamos a mostrar un método para calcular el rango de f. Sea V espacio
vectorial sobre un campo K y M ⊆ V . El método consiste en escribir la matriz
de representación del mapeo. Como el rango del mapeo es el mismo que el de su
cubierta lineal, se tiene que Rg (M ) = dim L(M ) = n ya que L(M ) es subespacio
de V . Entonces podemos escoger cualquier elemento de la cubierta, el rango será
el mismo. Escojamos entonces un elemento de la cubierta que nos de una lectura
rápida del rango. Para poder escoger este elemento, observemos primero que existen
un conjunto de acciones posibles que no cambian al conjunto L(M ), estas son:
a) intercambiar elementos de M.
b) multiplicar elementos de M por k ∈ K.
2. ISOMORFISMOS
45
c) sumar m ∈ M a k · x con k ∈ K, x ∈ M.
d) eliminar un elemento m ∈ M con m = 0.
Llevando a cabo cualquiera de las acciones enumeradas arriba, el conjunto
L(M ) seguirá siendo el mismo. Estas acciones se pueden traducir a la matriz
correspondiente, estas serian:
a) Intercambiar renglones de la matriz de transformación.
b) Multiplicar renglones de la matriz por k ∈ K.
c) Sumar renglones por un múltiplo de otro renglón.
d) Eliminar un renglón de la matriz igual a cero.
O hacer lo mismo cambiando la palabra renglón por columna.
La receta, entonces, para encontrar el rengo de una transformación lineal, es
escribir la matriz de transfomación y reducirla con estas operaciones, hasta ponerla
en una manera conveniente para poder leer su rango. Vamos a ver un ejemplos de
este proceso.
Ejemplo 3.15. Sea f ∈ (ℜ2 , ℜ3 ) y sea la base
1
0
{x1 =
, x2 =
} ⊂ ℜ2
0
1


 
 
1
0
0
{y1 =  0  , y2 =  1  , y3 =  0 } ⊂ ℜ3
0
0
1
La transformación




2 1
2 1
f → A =  1 3  es tal que f (xk ) =  1 3  xk
−1 0
−1 0
k = 1, 2, esto es, los elementos de la base se mapean como


 
2
1
1
0
f(
) =  1  y f(
)= 3 
0
1
−1
0
por lo que, cualquier elemento de ℜ2 se leera en ℜ3 como


  

2
1
2
1
0
1
a1
a1






1
3
1
3
) = a1
+a2
+a2
=
) = f (a1
f(
1
0
a2
a2
−1
0
−1 0
Este mismo proceso no cambia si usamos vectores renglón en vez de vectores columna,
lo que se haga para cada columna es análogo para cada renglón. Ahora vamos a
reducir la matriz de representación utilizando las operaciones que enunciamos anteriormente. Vamos a indicar arriba o abajo de cada matriz la operación que se va
a efectuar para pasar a la siguiente matriz. Se tiene:

2
A= 1
−1
×2 +
 
 

1
−1 2
1 0
3  ∼  −3 1  ∼  3 −5  ∼
0
0
−1
0 −1
+ ×3/5
46
3. MATRICES
· · · ×1/5
 

1
0
1
0
 0
−5  ∼  0
1 
−3/5 −1
−3/5 1/5
El rango de A es de hecho el número de columnas linealmente independientes de A.
Esto implica que Rg (A) = 2 y por tanto el rengo de f es también 2.

Ejercicio 3.16. Digan el rango de las siguientes transfomaciones lineales:
1. 1
1
0
1
f(
)=
, f(
)=
0
2
1
1
2. 


 


 


1
1
0
1
0
0
f ( 0 ) =  2  , f ( 1 ) =  1  , f ( 0 ) =  −1 
0
1
0
−2
1
0
3.-




 
 
 
 
1
1
0
4
0
2
f ( 0 ) =  2  , f ( 1 ) =  5  , f ( 0 ) =  1 
0
−1
0
0
1
2
Ejercicio 3.17. Encuentren
eales.
1. 



1
1
f ( 0 ) =  2  , f (
0
1
2.
el núcleo de las siguientes transformaciones lin


 


0
1
0
0
1 ) =  1  , f ( 0 ) =  −1 
0
−2
1
0



 


 


1
1
0
1
0
0
f ( 0 ) =  2  , f ( 1 ) =  1  , f ( 0 ) =  −1 
0
0
0
−1
1
−1
Ejercicio 3.18. Utilizando transformaciones
ientes matrices a una forma diagonal.
1.
1 2
4 5
2.

1 2 −1
 4 5 0 
2 0 −2
3.

1 2 −1
 4 5 0 
2 1 2
4.
1 2 −1 1
 4 5 0 −1

 2 1 2
2
−2 4 −2 1
de invariancia, reduzca las sigu-




3. ECUACIONES LINEALES
47
Ejercicio 3.19. Digan con solo ver las matrices diagonalizadas del ajercicio
anterior, cual es la dimensión del núcleo, el rango y cual de las tranformaciones es
biyectiva.
3. Ecuaciones Lineales
Todo lo aprendido hasta ahora en el capitulo de álgebra lineal, lo vamos a
aplicar en la resolución de sistemás de ecuaciones lineales. A partir de aquı́ usaremos
la matriz de representación de un mapeo para representar al mapeo mismo. Sea
A ∈ L(V1 , V2 ) con dim V1 = m y dim V2 = n. Sea A matriz del tipo (n, m) y sea
b ∈ V2 . Usaremos aquı́ a la letra b para representar un vector conocido, esto nos
ayudará para escribir el sistema de ecuaciones lineales con la notación estandard,
utilizada en la sección anterior.
Problema 3.20. Resolver el sistema de ecuaciones lineales
(3.3)
a11 l1 + · · · + a1m lm =
a21 l1 + · · · + a2m lm =
..
.
an1 l1 + · · · + anm lm =
b1
b2
..
.
bn
en donde los números li ∈ K son desconocidos y los coeficientes aij y bj son conocidos.
Observe que encontrar una solución al sistema, es encontrar el conjunto de
números li ∈ K que hagan todas las identidades del sistema verdaderas. Vamos a
definir el conjunto de vectores {x, b} y la matriz A como






l1
b1
a1n · · · a1m





.. 
x =  ...  , b =  ...  y A =  ...
. 
lm
bn
an1 · · · anm
El problema Ax = b escrito explicitamente, se ve como en (3.3). Entonces el
problema que nos hemos planteado es equivalente al problema de trasfomaciones
lineales ó matrices.
Problema 3.21. Encontrar x ∈ V , tal que Ax = b
A Ax = b se le llama ecuación lineal en x. De este problema surgen muchas
preguntas:
a) ¿Cuantas soluciones hay?
b) ¿La solución es unicamente determinada?
c) ¿Como escribir el conjunto de soluciones?
La existencia de una solución lo podemos resolver con ayuda del siguiente lema.
Lema 3.22. Si representamos el mapeo f como A(V1 ) = L({Ax1 , · · · , Axm }),
usando la base {x1 , · · · , xm } de V1 , tenemos que Ax = b tienen solución sii b ∈
L({Ax1 , · · · , Axm }) y esto se cumple sii L({Ax1 , · · · , Axm }) = L({Ax1 , · · · , Axm , b}).
Demostración 3.23. De la proposición 3.8 se sigue el resultado. Esto implica la igualdad de la dimensión de los dos espacios, es decir
Rg({Ax1 , · · · , Axm }) = Rg ({Ax1 , · · · , Axm , b})
48
3. MATRICES
Estos resultados quedaran más claros con algúnos ejemplos.
Ejemplo 3.24. Vamos a determinar si el sistema
4l1 + 5l2 + 6l3
−2l1 + 2l2 + l3
l1 + l2 + l3
tiene soluciones. Hagamos

4 5
A =  −2 2
1 1
entonces

=
=
=
2
−10
1



6
2
1  y b =  −10 
1
1



 
4
5
6
Ae1 =  −2  , Ae2 =  2  , Ae3 =  1 
1
1
1
Hay que determinar una base simple de L ({Ae1 , Ae2 , Ae3 }) para determinar
dim L ({Ae1 , Ae2 , Ae3 }) = Rg (A)
Ejercicio 3.25. Llevar la matriz A a su forma diagonal, usando las operaciones
lineal.
 invariates de
 la cerradura


4 −2 1
1 0 0
 5 2 1  ∼  0 1 0 
6 1 1
0 0 1
Por lo tanto Rg (A) = Rg ({Ae1 , Ae2 , Ae3 }) = 3, además b ∈ L ({Ae1 , Ae2 , Ae3 }) .
Es fácil ver que L ({Ae1 , Ae2 , Ae3 , b}) = L ({Ae1 , Ae2 , Ae3 }) por lo tanto el sistema tiene solución.
Un método muy eficiente para encontrar la solución de un sistema de ecuaciones
lineales es el método de Gauβ-Jordan. El método se basa en las operaciones que
dejan invariante la cerradura lineal. Estas se traducen en las siguientes operaciones
en el sistema.
El sistema no cambia sı́
a) Se intercambian ecuaciones
b) Se multiplica una ecuación por una constante del campo diferente de cero.
c) Se suma un múltiplo de una ecuación con otra.
d) Se elimina una ecuación de ceros.
Ejercicio 3.26. Resolver el sistema anterior usando el método de GauβJordan.
La solución de un sistema sera única sı́ la matriz tiene propiedades muy especiales. Estas propiedades son importantes ya que en tal caso no sólo sabremos que
la solución existe, sino además cual es. Veamos.
◦
◦
Proposición 3.27. Si x es solución de Ax = b, x está únicamente determinada sı́ y sólo sı́ A es mapeo uno a uno y sı́ y sólo sı́ ker A = {0V1 }
◦
Demostración 3.28. ⇒) Sea x única. Sean x, y ∈ V1 con Ax = Ay. Entonces
◦
Ax − Ay
= 0V2 , o sea A (x − y) = 0V2 . Como Ax = b, entonces se cumple
◦
que A x + (x − y)
◦
= Ax + A (x − y) = b. Por lo que se tiene también que
4. TRANSPUESTA E INVERSA DE MATRICES
◦
◦
◦
49
◦
x + x − y es solución. Pero x es única, por lo que x = x + (x − y), se sigue que
x = y. Implica entonces que A es uno a uno.
◦
∧
◦
∧
⇐) Sea A uno a uno, x es solución y sea x también solución. Ax = Ax = b.
◦
∧
Pero A uno a uno implica que x = x.
además A uno a uno implica que el ker A = {OV2 } . 

4 5 6
Ejercicio 3.29. Demostrar que A =  −2 2 1  tiene una solución
1 1 1
única.
Con estas proposiciones ya es entonces posible obtener la solución del sistema
de ecuaciones. La solución se construye usando la siguiente proposición.
◦
Proposición 3.30. Sea x una solución al sistema Ax = b. El conjunto de
◦
◦
todas las soluciones del sistema es {x + h | h ∈ ker A} =not x + ker A.
◦
◦
Demostración 3.31. i) Sea
◦y ∈ x + ker A, esto implica que y = x + h, con
h ∈ ker A es solución ya que A x + h = b + 0 = b.
◦
◦
◦
ii) Sea y solución, entonces y = x + y − x . Sı́ escribimos h = y − x, se
◦
◦
◦
tiene que y = x + h. Pero Ah = A y − x = Ay − Ax = b − b = 0. Por lo que
◦
h ∈ ker A. Por lo tanto y ∈ x + ker A. En el caso de que el núcleo de la transformación sea solo el conjunto con el
cero, se tiene que la transformación correspondiente es biyectiva. Sólo en este caso
la solución del sistema correspondiente es única, ya que le podemos sumar a la
solución sólo el vector cero. En terminos del rango, esto quiere decir lo siguiente.
Proposición 3.32. Sea A matriz del tipo (n, m). Supongamos que Ax = b
◦
◦
tiene solución x, entonces x es unicamente determinada sı́ y sólo sı́ Rg (A) = m.
Vamos a resumir todos los resultados sobre soluciones de un sistema de ecuaciones. Podemos poner los diferentes casos en una tabla como sigue.
Resumen 3.33. Sea A del tipo (n, m), con Ax = b sistema de ecuaciones. Se
tiene que
A matriz (n, m)
Rg (A, b) 6= Rg (A)
Rg (A, b) = Rg (A) = r
r=m
r<m
Ax = b (inhomogeneo)
no hay solución
Ax = 0 (homogeneo)
◦
sólo la solución trivial x = 0
solución única
sólo la solución trivial
más de una solución
soluciones no triviales
4. Transpuesta e Inversa de Matrices
En esta sección vamos a definir dos matrices derivadas de una matriz cualquiera,
la transpuesta y la inversa. Ambas son de mucha utilidad en problemás concretos y seran utilizadas más adelante, aquı́ daremos su definición y algúnas de sus
propiedades más importantes.
50
3. MATRICES
Definición 3.34. Sea A
matriz AT tal que si

a11 · · · a1m
 ..
A= .
an1
···
anm
matriz del tipo (n, m) . La transpuesta de A, es la


a11

 ..
T
 se tiene que A =  .
a1m
···
an1
···
anm
y es del tipo (m, n) , es decir, se cambian renglones por columnas.



Cuando calculamos el rango de una matriz, las operaciones que hacemos con
los renglones las podemos igualmente hacer con la columnas de la matriz, por lo
que si cambiamos renglones por columnas el rango no cambia. Por esta razón se
sigue la siguiente proposición
Proposición 3.35. Rg (A) = Rg AT
Ejercicio 3.36. Probar la proposición anterior.
La matriz tanspuesta tiene una serie de propiedades que la hacen muy interesante, las más iportantes las podemos resumir como sigue.
Propiedades de la transpuesta de Matrices.
T
1) AT
=A
T
2) (A · B) = B T · AT
T
3) (A + B) = AT + B T
T
4) Si x ∈ K, se cumple (x · A) = x · AT
Comentario 3.37. Como veremos más adelante, las propiedades 1) y 2) se
parecen a propiedades analogas a las de la inversa de una matriz. Pero la transpuesta
siempre existe, la inversa no necesariamente.
Ahora veamos las propiedades de la inversa de matrices.
Definición 3.38. La inversa de una matriz A (n, n) es la matriz A tal que


1
0


..
A · A−1 = A−1 · A = 

.
0
1
Notación 3.39. De aquı́ en adelante usaremos a notación


1
0


..
I =

.
0
1
Las propiedades más importantes de la inversa de una matriz se resumen en la
siguiente proposición.
Proposición 3.40. Sea A matriz del tipo (n, n)
Las siguientes condiciones son equivalentes.
1) Existe la matriz A−1 de tipo (n, n) tal que A−1 · A = A · A−1 = I
2) Sea f el mapeo correpondiente a A, entonces f es sobre
3) ker A = {0}
4) Rg (A) = n
5) El mapeo f correspondiente a A es uno a uno.
4. TRANSPUESTA E INVERSA DE MATRICES
51
Demostración 3.41. Para demostrar esta proposición, vamos a demostrar del
paso 1) al 5) y luego el 5) al 1).
1) ⇒2): Sea f ∈ L (V1 , V2 ) , tal que dim V1 = dim V2 = n. Sea
y ∈ V2 , tal que
y = Iy, con I la matriz identidad. Se sigue que y = A · A−1 y = A A−1 y .
Entonces sı́ existe un x ∈ V1 tal que Ax = y pues x = A−1 y.
2) ⇒3): Esto se sigue del hecho que n = dim A (V1 ) + dim ker A, entonces
dim ker A = 0.
3) ⇒4): Esto se sigue del hecho que Rg (A) = dim A (V1 ) = n
4) ⇒5): Rg(A) = n implica que no existen columnas o renglones de ceros, esto
hace al mapeo correspondiente uno a uno.
5) ⇒1): f uno-uno implica que existe f −1 , por tanto A−1 es la matriz asociada
−1
af .
Ahora veremos un método para encontrar la inversa. De nuevo usamos las operaciones invariantes de la cerradura lineal. Supongamos que A−1 existe y apliquemos el método de Gauβ−Jordan a la matriz extendida (A, I), lo que debemos
obtener al final es (I, A−1 ), es decir

 a11
 ..
 .

an1

..
. 1 ··· 0 
pasos de

..
..
∼

.
.

Gauβ-Jordan
.
· · · ann .. 0 · · · 1
.
A .. I


..
−1
−1
1
0
.
a
·
·
·
a
11
1n 



..
..
..


.
.
.


..
−1
−1
0
1
.
a
·
·
·
a
nn
n1
..
−1
I . A
···
a1n
−1
donde estamos usando la notación a−1
ij = (aij )
.
Definición 3.42. Una matriz A del tipo (n, n) se llama regular sı́ Rg(A) = n.
Se llama singular si Rg(A) 6= n.
Es decir, A regular implica que existe su inversa A−1 y además Rg (A) = n.
Comentario 3.43. Si A es regular la solución de Ax = b es x = A−1 b y es
única.
Ejercicio
3.44. Seanlas matrices




1 −1 2
0 −1 2
M =  2 3 −1  N =  2 0 −1  S = 
1 −1 0
1 −1 0
Usando el método de Gauβ-Jordan, encuentre la inversa de
Ejercicio
3.45.
Sean el vector


1
b =  −1 
2
1 −1
2 −2
1 −1
M, N y

2
2 
0
S.
52
3. MATRICES
Resuelva los sistemás M x = 0, N x = 0 y Sx = 0 asi como M x = b, N x = b
y Sx = b usando el método de Gauβ-Jordan y usando la inversa de las matrices
M y N . Diga cuantas soluciones tiene cada sistema.
CHAPTER 4
DETERMINANTES
1. Definición
Al igual que los grupos y los anillos, el conjunto de las matrices puede separarse
en clases. Las matrices son objetos matemáticos de cierta complejidad, es por eso
que es muy interesante analizar cantidades que sean invariantes en las diferentes
clases de las matrices. Como veremos más adelante, los determinantes son cantidades invariantes en las clases y pertenecen al campo en donde se definieron las
matrices. Estas cantidades se le pueden asociar a las matrices cuadradas. Como
veremos en la siguiente sección, los determinantes también son muy útiles para
calcular las soluciones de sistemás de ecuaciones lineales. Por ahora daremos su
definición y algúnas de sus propiedades.
Sea A matriz cuadrada sobre el campo K del tipo (n, n), asociada al mapeo
lineal f ∈ L (V1 , V2 )


a11 · · · a1n

.. 
A =  ...
. 
an1
···
ann
Definición 4.1. Se asocia a A de manera única, un número de K llamado el
determinante de A, definido como
a11 · · · a1n .. = X (sgnP ) a a · · · a ,
det A = ...
nin
1i1 2i2
.
P
an1
ann donde la suma se lleva a cabo sobre todas las posibles permutaciones
1 2 ··· n
P =
i1 i2 · · · in
de los números 1, 2, · · · , n.
Observemos entonces que la suma que calcula el determinante de la matriz
A, tiene n! términos. El sgnP es el signo de la permutación de P. ¿Y como se
calculan los determinantes? El cálculo de los determinantes suele ser un proceso
muy largo y tedioso, sobre todo para matrices de dimensión grande. Sin embargo
existen algúnos métodos para calcular el determinante que suelen ayudar y reducir
mucho el trabajo del cálculo. Para el caso de dimensiones bajas, n = 2, 3 se usa la
regla de ”Sarras”. Aplicando la definición de determinante para una matriz (2, 2),
se llega facilmente a la fórmula
a b = ad − bc
det c d 53
54
4. DETERMINANTES
Para el caso de una matriz (3, 3) también existe una fórmula simple. De la
definición de determinante se obtiene
a
det d
g
b
e
h
c
f
i
= aei + bf g + cdh − ceg − bdi − af h
Para n > 3 el ploblema se complica mucho y es conveniente usar el teorema
de Laplace, que consiste en lo siguiente. Para calcular el determinante de la matriz
blk , donde los
A = (A)j = aij que es (n, n), primero se calculan los determinantes C
blk son los subdeterminantes (n − 1, n − 1) generados por medio de quitar la l-esima
C
linea y la k-esima columna del det A, tal que det A = Σni=1 aik Cik = Σni=1 aki Cki
blk se llaman los
para k ∈ {1, 2, · · · , n}, donde los determinantes Clk = (−1)l+k C
cofactores de A, es decir
a11
a12
· · · a1k−1 a1k+1 · · ·
a1n a21
a22
· · · a2k−1 a2k+1 · · ·
a2n ..
..
.
.
i+k a
a
·
·
·
·
·
·
a
Cik = (−1)
i−1 2
i−1 n i−1 1
ai+1 1 ai+1 2 · · ·
·
·
·
a
1+1 n .
.
..
..
an1
an2
···
···
ann El teorema de Laplace consiste en reducir det A en n subdeterminantes
Cik de una dimensión menor y despues aplicar la fórmula de Laplace det A =
Σni=1 aik Cik . Entonces se aplica sucesivamente este proceso hasta llegar a un determinante de 3 o 2 lineas, cuya fórmula es ya conocida. Por supuesto este proceso
puede llegar a ser muy largo para determinantes de dimensión grande. Para calcular
estos determinantes, a veces ayudan otros métodos. A continuación presentaremos
uno de ellos que es muy útil para estos determinantes. Este método esta basado en
algúnas propiedades de los determinantes. Para explicar estas propiedades, escribimos las lineas de det A como n -uplas o vectores {V1 , V2 , · · · , Vn }. Entonces det A
se puede ver como una función del conjunto de estos vectores, al campo K, es decir
D : {V1 , V2, · · · , Vn } ⇀ K , tal que D (V1 , · · · , Vn ) = det A, donde Vi es la linea i
de A. Las propiedades del determinate en terminos de esta función son
1) D (V1 , · · · , Vi−1 , Vi , · · · Vn ) = −D (V1 , · · · , Vi , Vi−1 , · · · , Vn ), intercambiar dos
lineas cambia el signo del determinante.
2)
a) Sea m ∈ K, entonces mD (V1 , · · · , Vi , · · · , Vn ) = D(V1 , · · · , mVi , · · · , Vn ),
el producto del determinate por una constante es igual al producto de una linea
por la constante.
b) D(V1 , · · · , Vk , · · · , Vn )+D(V1 , · · · , Vk1 , · · · , Vn ) = D(V1 , · · · , Vk +Vk1 , · · · , Vn ),
la suma de dos determinantes con una k-esima linea diferente, es igual al determinante de la matriz con la suma de las k-esimás lineas. Estas dos propiedasdes hacen
al determinante lineal en cada argumento, es decir, D es una función multilineal.
3) D(V1 , Vn ) = 0 sii {V1 , Vn } son linealmente dependientes.
4) det A = det AT
5) det (A · B) = (det A) (det B) = det (B · A)
1. DEFINICIÓN
55
El determinante es muy útil para saber si una matriz es regular. Esto se logra
usando el siguiente lema.
Lema 4.2. Sea A matriz del tipo (n, n). A es regular sı́ y sólo sı́ det A 6= 0
−1
Demostración 4.3. =⇒)
A regular implica
que existe A , entonces A ·
−1
−1
A = I, pero det
= (det A) det A
. Como det I = 1, se sigue que
A·A
(det A) det A−1 = 1, por lo que det A 6= 0. −1
Ejercicio 4.4. Demuestre la otra dirección ⇐=) del lema.
Corolario 4.5. A regular implica que det A−1 = (detA)
−1
Existe un método muy usado para calcular la inversa de una matriz, usando
los cofactores. Para ver esto, primero definamos la matriz adjunta.
Definición 4.6. La matriz adjunta se define como
adj (A) = (adj (A))ij = Cij
donde los Cij son los cofactores de la matriz A
Recordemos que el determinante de A se calcula como det A = Σni=1 aik Cik .
Vamos a introducir una proposición, sin demostración, que generaliza esta última
expresión.
Proposición 4.7. Se puede generalizar la expresión para detA como det Aδkj =
Σni=1 aik Cij donde δkj es la delta de Kronecker definida por
1 si k = j
δkj =
0 si k 6= j
la cual también puede ser representada por la matriz identidad I, i.e. (I)kj = δkj
Es por eso que en términos de la matriz adjunta, el determinante se escribe
entonces como (det A) I = Σni=1 aik Cij = A (adj (A)). Esta última fórmula nos da
un método para calcular la inversa, esto es
−1
A−1 = (det A) (adj (A))
Finalmente, ya vimos que det A 6= 0 implica que A es regular y además que
Rg (A) = n. Entonces implica que existe una única solución del sistema Ax = b.
Existe también un método que usa determinantes para resolver este sistema. A
este método se le conoce como Teorema de Cramer, el cual enunciaremos aquı́ sin
demostración.
Teorema 4.8. de Cramer. Sea
ecuaciones lineales.

a11 · · ·
 ..
A= .
an1
A matriz de tipo (n, n) y Ax = b sistema de

a1n
.. 
. 
ann

b1


b =  ... 
bn
si det A = |A| =
6 0 entonces la solución al sistema


l1


x =  ... 
ln

56
4. DETERMINANTES
es unicamente determinada y tiene la forma
a11 · · · a1j−1 b1 a1j+1
..
.
an1 · · · anj−1 bn anj+1
lj =
det A
···
a1n ann El numerador de la solución lj , es el determinante de la matriz Aj generada
por substituir la j-esima columna de A por el vector b. Para entender mejor esta
fórmula, vamos a ver algunos ejemplos.
Ejemplo 4.9. Sea Ax = b

4 5
A =  −2 2
1 1

6
1 
1


2
b =  −10  ,
1
el determinante de A lo calculamos usando el teorema de Laplace
2 1 − (2) 5 6 + 1 5 6 = 4 (1) + (−1) + 1 (−7) = −5
det A = 4 1 1
1 1
2 1 Entonces la solución del sistema esta dado por
2
4
5 6 2
6
1
1 −10
2
1
−2
−10
1
l1 = − = 3, l2 = − 5 5
1
1
1 1 1
1
4 5
2 1
l3 = − −2 2 +10 = 0
5
1 1
1 = −2,
Ejercicio 4.10. Resolver por el método de Gauβ-Jordan, por el método de la
matriz inversa y por el método de Kramer, los siquientes sistemás de ecuaciones.
1)
3l1 + 2l2 − l3
=
1
l1 − l2 + 3l3
4l1 − 6l2 + l3
=
=
9
2
2l1 + 3l2 − 4l3
=
−8
3l1 + 2l2 − l3
=
1
=
=
9
−8
2)
l1 − l2 + 3l3
2l1 + 3l2 − 4l3
3)
3l1 + 2l2 − l3
l1 − l2 + 3l3
2l1 + 3l2 − 4l3
= 0
= 0
= 0
2. MATRICES SIMILARES
57
4)
5)
3l1 + 2l2 − l3
l1 − l2 + 3l3
=
=
0
0
4l1 − 6l2 + l3
=
0
3l1 + 2l2 − l3
l1 − l2 + 3l3
=
=
1
−2
4l1 − 6l2 + l3
2l1 + 3l2 − 4l3
=
=
2
−8
2. Matrices Similares
El conjunto de matrices se puede separar en clases de equivalencia. Esta separación es muy conveniente ya que en muchas ocaciones va a ser suficiente trabajar
con algún elemento de la clase y no con una matriz en general. A la relación que
separa a las matrices en clases, se le llama similaridad y es de lo que nos ocuparemos
en esta sección.
Definición 4.11. Dos matrices A, B del tipo (n, n, ) se llama similares sı́
existe una matriz regular U del tipo (n, n) tal que A = U BU −1 .
Notación 4.12. A la transformación B ⇀ U BU −1 se le llama transformación de similaridad.
La transformación de similaridad es una relación de equivalencia y es justo este
hecho lo que da a esta transformaciń su importancia. Esta afirmación la pondremos
en la siguiente proposición.
Proposición 4.13. La similaridad en el conjunto de todas las matrices (n, n)
es una relación de equivalencia.
Demostración
1) reflexiva:
2) simétrica:
3) transitiva:
existe W = U S tal
U SC (U S)−1 . 4.14. Veamos que la relación es
A es similar a A pues U = I es regular.
A = U BU −1 implica que B = U −1 AU
A = U BU −1 y B = SCS −1 con U y S regulares, entonces
que A = U BU −1 = U SCS −1 U −1 = (U S) CS −1 U −1 =
Ahora vamos a ver algunas de las propiedades más interesantes de matrices
similares. Para esto, supongamos que tenemos una matriz que es la suma de muchas
matrices. Para transformar esta matriz a su similar, es suficiente en conocer la
similaridad de cada sumando y luego sumarlas todas. Esta propiedad la podemos
enunciar como un lema.
Lema 4.15. Para transformar una suma de matrices en su similar, se suman
las similares de cada matriz.
Demostración 4.16. Se tiene U (A1 + · · · + An ) U −1 = U A1 U −1 + · · · +
U An U −1 . De la misma forma, podemos transformar potencias de matrices
58
4. DETERMINANTES
Lema 4.17. El similar de la potencia de una matriz es la potencia del similar.
Demostración 4.18. Se tiene U An U −1 = U AU −1 U AU −1 · · · U AU −1 = U AU −1
Por lo tanto, se tiene la siguiente proposición,
Lema 4.19. La matriz similar de una matriz polinomial es el polinomio de la
matriz similar .
Demostración 4.20. Por los lemás anteriores se tiene que U pn (A)U −1 =
pn (U AU −1 ) para todo polinomio pn de grado n. El siguinte paso es determinar representantes convenientes de cada clase de
equivalencia.
3. Invariantes de Matrices Similares (Vectores y Valores Propios)
El problema que nos enfrentamos ahora es el de saber si una matriz está en
algúna clase de equivalencia del conjunto de matrices conocidas. Las clases de equivalencia poseen algúnos inveriantes, números o vectores que caracterizan la clase o
son un criterio para saber si algúna matriz esta en algúna clase determinada. En
esta sección veremos algúnos invariates, sus propiedades y lo métodos más comunes
para calcularlos. La primera propiedad esta dada por la siguiente proposición
Proposición 4.21. Matrices similares realizan la misma transformación lineal, usando diferentes bases del espacio vectorial.
Demostración 4.22. Veamos primero una idea de la demostración. Sea la
transformación lineal f ∈ L (V, V ), esta transformación tendra asociada una matriz A en la base {xi }i=1,···
Pn ,n . En otra base {yi }i=1,··· ,n , relacionada con la base
{xi }i=1,··· ,n por yi = j=1 uij xj , que se puede representar matricialmente por
y = U x, la transformación lineal tendrá otra matriz de representación B. Entonces,
V podrá P
escribirse
Pnun vector vP∈
Pn en cualquiera de las dos bases como
n
n
v =
r
x
=
s
y
=
i=1 i i
j=1 j j
j=1
k=1 sj ujk xk , por lo que encontramos la
relación matricial r = U s. Se debe cumplir que Av = Bv, o sea Arx = Bsy, es
decir, AU sx = BsU x, de donde se sigue que U −1 AU = B. Ejercicio 4.23. Mostrar los detalles de la proposición anterior.
Entonces tenemos el siguiente problema ¿Como reconocer matrices similares?
¿Que propiedades se mantienen iguales cuando transformamos una matriz en otra
por medio de una transformación de similaridad? La siguiente proposición nos dará
una idea para resolver estas preguntas.
Proposición 4.24. Sean A y B matrices similares. Entonces
a) Rg (A) = Rg (B)
b) det A = det B
Demostración 4.25. Sean
y A = U BU −1 , con U regular.
A, B del tipo (n, n)
−1
−1
b) det A = det ABU
= det U det B det U = det B Ejercicio 4.26. Demostrar a) de la proposición anterior.
n
.
3. INVARIANTES DE MATRICES SIMILARES (VECTORES Y VALORES PROPIOS)
59
Ahora ya tenemos un primer criterio para saber cuando dos matrices pertenecen
a la misma clase, con esta proposición, al menos sabemos que si det A 6= det B o
Rg (A) 6= Rg (B) entonces A y B no son similares. Vamos a introcir otro criterio
para saber si dos matrices no son similares. Para esto iniciamos con la siguiente
definición.
Definición 4.27. Sea A la matriz que representa al automorfismo f ∈ L (V, V )
con dim V = n. A cada x ∈ V , con x 6= 0V , que cumple Ax = λx para algún
λ ∈ K, se le llama vector propio (eigen vector) de A y λ se le llama valor
propio (eigen valor) asociado a x.
El sistema Ax = λx puede ser escrito de la manera más conveniente como
(A − λI) x = O
(4.1)
donde I es la matriz identidad y O es la matriz con ceros en todas las entradas.
(4.1) es un sistema homogeneo de ecuaciones lineales que en principio podemos
resolver con caulquiera de los métodos que ya hemos expuesto. Observemos que el
sistema (4.1) tiene soluciones no triviales, diferentes de cero, si Rg (A − λI) < n,
pero esto sucede si det (A − λI) = 0K . Este hecho da pie a la siguiente definición.
Definición 4.28. A la matriz A − λI se le llama la matriz caracteristica
de A. Al polinomio det (A − λI) se le llama polinomio carateriztico de la
ecuación (4.1). det (A − λI) = 0 se le llama la ecuación caracteristica de A.
Una de las propiedades más importantes de los polinomios caracteristicos es la
siguiente
Teorema 4.29 (Cayley-Hamilton). Toda matriz es raiz de su polinomio caracteristico.
Demostración 4.30. Sea A matriz y P = A − λI. Sea B la matriz adjunta
de P , por lo que det(P )I = P (adj(P )), es decir
| A − λI | I = (A − λI) B.
Como B es una matriz polinomial de grado n − 1 y det(P ) es un polinomio de
grado n, se tiene que la ecuación anterior se puede reescribir como
(a0 + a1 λ + · · · + an λn ) I = (A − λI) B0 + B1 λ + · · · + Bn−1 λn−1
donde det(P ) = a0 +a1 λ+· · ·+an λn es el polinomio caracteristico y las matrices Bi ,
con i = 1, · · · , n − 1 son las matrices que forman la matiz polinomial B. Igualemos
coeficientes de igual grado en λ de ambos lados de la ecuación anterior, de donde
se obtiene
a0 I
= AB0 ;
a1 I
a2 I
= AB1 − B0 ;
= AB2 − B1 ;
..
.
= ABn−1 − Bn−2 ;
an−1 I
an I
= −Bn−1 .
60
4. DETERMINANTES
Ahora multipliquemos la segunda igualdad de la lista anterior por A, la tercera
igualdad por A2 , y asi susesivamente hasta que la última la multiplicamos por An
y sumemos todo de ambos lados. El resultado es
a0 I + a1 A + · · · + an An = 0
En lo que sigue, daremos un método para calcular los valores propios y los
vectores propios de una matriz A.
Paso 1. Usando la ecuación caracteristica, se calculan los valores caracterisiticos
λ1 , · · · , λn como raices del polinomio caracteristico.
Paso 2. Para cada autovalor encontrado, se soluciona la ecuación

 

a11 − λ
a12
···
ain
l1
 a21


a22 − λ · · ·
ann 

  l2 
(A − λI) x = 
  ..  = 0.
..

  . 
.
an1
an2
· · · ann − λ
ln
El método es simple, para verlo con más claridad vamos a ver un ejemplo.
3 1
2
Ejemplo 4.31. Sea V = R y K = R, y sea A la matriz A =
.
2 4
Entonces el polinomio caracteristico de A es
det (A − λI) = (3 − λ) (4 − λ) − 2 = 12 − 3λ − 4λ + λ2 − 2 = λ2 − 7λ + 10 = 0
q
40
7
3
Las raices del polinomio caracteristico son, λ1,2 = 27 ± 49
4 − 4 = 2 ± 2 , es
decir λ1 = 2 y λ2 = 5. Entonces los valores propios son 2 y 5.
Los vectores propios asociados a λ1 se encuentran resolviendo
3−2
1
l1
0
(A − λ1 I) x = 0 =
=
2
4−2
0
l2
La solución de esta ecuación matricial se reduce a la solución del sistema
l1 + l2
=
0
2l1 + 2l2
=
0
que conduce a la solución l1 =
−l2 . Esto es, los vectores propios asociados a este
r
valor propio son de la forma
con r ∈ R. Los vectores propios asociados a
−r
λ2 se encuentran resolviendo la ecuación
3−5
1
0
l1
(A − λ2 I) x = 0 =
=
2
4−5
0
l2
la ecuación matricial se reduce a
−2l1 + l2
2l1 − l2
= 0
= 0
cuya solución
esta dada por l2 = 2l1 , entonces los vectores propios están dados por
s
, con s ∈ R.
2s
3. INVARIANTES DE MATRICES SIMILARES (VECTORES Y VALORES PROPIOS)
61
Observemos la siguiente importante propiedad. Sean A y B matrices similares,
i..e. A = U BU −1 . Entonces
se sigue que det (A
− λI) = det U −1 BU − λI =
det U −1 BU − λU −1 IU = det U −1 (B − λI) U =
det U −1 det (B − λI) det U = det (B − λI) o sea det (A − λI) = det (B − λI).
Esta es una propiedad muy importante de las matrices similares, es decir:
Proposición 4.32. Matrices similares tiene el mismo polinomio caracteristico
y por lo tanto los mismos valores y vectores propios.
Con este último resultado ya tenemos tres criterios para decidir si dos matrices
no son similares. Si su rango o su determinante o sus valores o vectores propios no
son los mismos, de entrada las matrices no son similares. Para que dos matrices
sean similares, deben tener al menos el mismo rango, el mismo determinante y los
mismo valores propios.
Vamos a introducir una definición muy importante que consiste en la suma
de los elementos de la diagonal de una matriz, a esta suma se le llama la traza.
Formalmente se define como sigue.
Definición 4.33. La traza de A esta definida por
Tr A = Σni=1 aii
es decir, es la suma de los elementos de la diagonal de A
Comentario 4.34. Otras propiedades de los valores y vectores propios, son las
siguientes.
1) Si λ1 , λ2 , · · · , λn son los valores propios de la matriz A, se tiene que
det A
Tr A
= Πni=1 λi , y
= Σni=1 λi
2) Como consecuencia de 1) se sigue
Si det A = 0, esto es sı́ y sólo sı́ existe algún valor propio de A que es cero,
λj = 0.
A regular, sı́ y sólo sı́ ningun valor propio de A tiene el valor 0, es decir, sı́ y
sólo sı́ 0 no es valor propio de A.
3) Si λ1 , λ2 , · · · , λn son los valores propios de A y son todos distintos, implica que el conjunto de vectores propios {x1 , · · · , xn } donde xi es el vector propio
asociado a λi , es linealmente independiente en V.
4) Si K = R y V = Rn , los valores propios son en general complejos. Pero si
A = AT los valores propios
son reales.
5) Si A ∈ O (n) = A | A es (n, n) y AT = A−1 , entonces todos los valores
propios tienen el valor 1.
Ejercicio 4.35. Demostrar las propiedades 1) a 5)
Estas propiedades de los valores y vectores propios vuelven a estos de suma
importancia en el estudio de matrices y en general en el álgebra lineal.
CHAPTER 5
FORMAS CANONICAS
1. Introducción
Ya hemos separado al conjunto de matrices en clases de equivalencia. Ahora
buscaremos representantes diversos que sean simples en estas clases de equivalencia. Ya sabemos que estos representantes puede ser cualquier miembro de la clase.
Sin embargo, los representantes más simples para trabajar serán siempre los que
contengan un mayor número de ceros en sus componentes. Estos representantes
simples son generalmente diagonales o cuasidiagonales. Para obtener estos representantes hay que tomar varias cosas en cuenta. Ya sabemos que invariantes de
matrices similares son, entre otros, el rango, el determinante y los valores propios.
Sin embargo, estos invariantes sirven para saber cuando dos matrices no son similares. Por ejemplo, si Rg(A) 6= Rg(B), esto implica que A y B no son similares.
Sin embargo, si Rg(A) = Rg(B), esto no implica que A y B son similares.
Para ver si dos matrices están en la misma clase de equivalencia con la relación
de similaridad, se encuentra un representante simple de la clase y se compara éste
con las matrices que deben ser similares. Si cada una es similar al representante,
las matrices son similares. En otras palabras, sean por ejemplo A y B, ¿son A ∼ B
similares? Si [C] es un representante de una clase tal que A ∼ [C], se ve si B ∼ [C].
A estos representantes simples se les llama formás canónicas. Para introducir las
formás canónicas, vamos primero a dar algúnas definiciones útiles.
Definición 5.1. Las matrices pueden ser
· Una matriz diagonal, si solo tiene términos de cero en los elementos diagonales esto es



C=

c11
0
..
.
0
c22
0
0

0
0 



···
..
.
···
cnn
· Una matriz es triagonal, si es de la forma



C=

c11
0
..
.
0
c12
c22
···
..
.
c1n
c2n
..
.
cnn






 , ó C = 


63
c12
c21
..
.
0
c22
cn1
cn2
···
0
..
.
···
cnn





64
5. FORMAS CANONICAS
· Una matriz es cuasidiagonal, si es hecha de bloques no diagonales en la
diagonal, de la forma


[ ]
0

.. 

⌈ ⌉
. 


C = .


 ..
⌊ ⌋
0
[ ]
Si la matriz es polinomial, como es el caso de la matriz caracteristica, es muy
conveniente hacer la siguiente definición.
Definición 5.2. Una matriz polinomial U (λ) se llama forma canónica
diagonal, si todo elemento diagonal pi (λ) divide al elemento siguiente pi+1 (λ) y si
el elemento principal de todos los polinomios p1 (λ), · · · , pn (λ) diferente de cero es
1, es decir, una matriz en su forma canónica diagonal tiene la estructura


1
0
···


..


.
0



 0
1




p
(λ)
1


 ..
.
.
..
.. 
C= .





pn (λ)



0
0
0 




..


.
···
0
0
donde pi (λ) con i = 1, · · · , n son polinomios, tales que p2 /p1 , · · · , pn /pn−1 son
polinomios. A los polinomios pi (λ) se les llama los factores invariantes de la
matriz.
Siempre es posible llevar a una matriz polinomial a su forma canónica diagonal,
usando transformaciones elementales. Para ver esto veamos un ejemplo:
Ejemplo 5.3. Sea la matriz polinomial
 3

x − 2x + 1 3x4 + 2x x2
 2x2 − x
0
1 
3x2 + 1
−2x3
x
El primer paso para llevar esta matriz a su forma canónica diagonal, es poner
el polinomio de la matriz de menor grado diferente de cero, en la esquina superior
izquierda. En este caso el polinomio de menor grado es el 1. Entonces, cambiando
la tercera columna por la primera y luego el segundo renglón por el primero, se
obtiene


1
0
2x2 − x
 x2 3x4 + 2x x3 − 2x + 1 
x −2x3
3x2 + 1
Ahora multiplicamos el primer renglón por x2 y lo restamos con el segundo,
lo ponemos como segundo renglón. Análogamente, multiplicamos el primer renglón
1. INTRODUCCIÓN
por x y lo restamos con el

1
 0
0
65
tercero, colocandolo en el tercer renglón. Se obtiene:

0
2x2 − x
3x4 + 2x −2x4 + 2x3 − 2x + 1 
−2x3
−2x3 + 4x2 + 1
Entonces multiplicamos la primera columna por 2x2 − x y la restamos de la
tercera columna, la ponemos en vez de la tercera columna, para obtener


1 0
0
 0 3x4 + 2x −2x4 + 2x3 − 2x + 1 
0 −2x3
−2x3 + 4x2 + 1
El resultado es que tenemos una matriz cuasidiagonal. Volvemos a empezar el
proceso, pero ahora con la matriz 2 × 2 de la diagonal inferior. Pongamos de nuevo
el polinomio de menor grado (y más simple) en la esquina superior izquierda. Esto
se logra cambiando el segundo por el tercer renglón. Se obtiene


1 0
0
 0 −2x3

−2x3 + 4x2 + 1
4
0 3x + 2x −2x4 + 2x3 − 2x + 1
Lo que sigue es análogo al proceso anterior, hay que diagonalizar este bloque.
Vamos a multiplicar el segundo renglón por 3x4 + 2x y restarlo con el tercer renglón
multiplicado por −2x3 . Se obtiene


1 0
0

 0 −2x3 −2x3 + 4x2 + 1
4
3
3
3
2
4
0 0
−2x + 2x − 2x + 1 −2x − −2x + 4x + 1 3x + 2x
Finalmente, multiplicamos la tercera columna por −2x3 y se la restamos a la
segunda columna multiplicada por −2x3 + 4x2 + 1 y la ponemos en vez de la tercera
columna, obtenemos:


1 0 0
 0 1 0

7
6
4
3
0 0 10x − 16x + 5x − 10x − 2x
donde hemos dividido el segundo renglón entre −2x3 , para obtener en la diagonal
un polinomio que divida al ultimo de la diagonal. Observemos que el determinante
de la matriz original es justamente ± 10x7 − 16x6 + 5x4 − 10x3 − 2x , como era
de esperarse.
Cuando representamos una transformación lineal con su matriz, generalmente
utilizamos elementos arbitrarios del dominio de la función. Como vamos a ver
adelante, los valores y vectores propios son muy convenientes para representar la
transformación linea, porque la matriz que le corresponde en esta representación es
diagonal. Vamos a ver esto en la siguiente proposición.
Proposición 5.4. Sea V espacio vectorial de dimensión finita n y f ∈ L (V, V ).
f es representable por una matriz diagonal, sii existe una base {x1 , · · · , xn } de V
y números del campo λ1 , λ2 , · · · , λn ∈ K tales que f (xi ) = λi xi . Entonces los
números λ1 , · · · , λn son los elementos de la diagonal de esta matriz.
66
5. FORMAS CANONICAS
Demostración 5.5. Sea A la matriz que representa a f . Como f (x1 ) =
λ1 x1 , · · · , f (xn ) = λn xn , esto es sii se tiene que


λ1
0


..
A=

.
0
λn
Esta proposición es muy importante porque reduce el problema de encotrar una
representación simple de la clase a encontrar la base en la cual esta representación
es diagonal. Es más, los valores propios de la transformación lineal son raices del
polinomio caracteristico de la matriz de representación, esto es:
Teorema 5.6. Sean V espacio vectorial, f ∈ L (V, V ), A la matriz representación de f y k ∈ K. Entonces k es un valor propio de f sii k es una raiz del
polinomio caracteristico de A.
Demostración 5.7. Sea k valor propio de f , del vector propio x. Entonces
Ax = kx, esto es sii (A − kI) x = 0. Pero este sistema de ecuaciones lineales solo
tiene solución no trivial sii det (A − kI) = 0. Esto es, si queremos encontrar la base en la cual una transformación lineal tiene
una representación diagonal, basta con encontrar sus valores y vectores propios. Si
estos vectores propios son l.i., esta base es la apropiada. Si los vectores propios no
son l.i., entonces debemos buscar algúna representación similar adecuada. Vamos
a ver esto. Para poder ver si dos matrices son similares, se utiliza la definición de
matrices equivalentes, esta es:
Definición 5.8. Dos matrices polinomiales A (λ) y B (λ) son equivalentes,
si existen U y V de determinantes no nulos que no dependen de λ, tal que
A (λ) = U B (λ) V
La relación entre matrices similares y matrices equivalentes es que dos matrices
son similares si sus matrices caracteristicas son equivalentes, esto lo vemos en el
siguiente teorema.
Teorema 5.9. Sean A y B definidas en un cuerpo conmutativo K. A y B son
similares sı́ y sólo sı́ A − λI y B − λI son equivalentes.
Demostración 5.10. =⇒) Si A = U BU −1 entonces A−λI = U (B − λI) U −1
⇐=) Sean A − λI y B − λI equivalentes, entonces A − Iλ = S (B − Iλ) R, para
S y R matrices que no dependen de λ. Como B tampoco depende de λ, igualando
coeficientes del mismo orden, se tiene I = SR y A = SBR, ambas identidades
implican que A = SBS −1 . Un método para determinar la semejanza de las matrices A y B es el siguiente.
Se forma la matriz caracteristica de cada una de las matrices A − Iλ y B − Iλ y se
reducen a su forma canónica diagonal con pasos elementales. Si despues de reducir
ambas matrices caracteristicas a su forma más elemental, las dos formás coinciden,
entonces A y B son similares. Veamos un ejemplo.
1. INTRODUCCIÓN
67
Ejemplo 5.11. Sean
(5.1)
A =
(5.2)
B
=

5
3
 −3 −1
−3 −3

−1 −3
 6
8
6
6

3
−3  y
−1

3
−6 
−4
mostremos que estas dos matrices son similares. Primero notemos que sus determinantes son iguales, i.e., det A = det B = −4. Si esto no fuera asi, A y B no pueden
ser similares. También notemos que A y B tienen la misma traza trA = trB = 3.
Entonces si pueden ser similares. El determinante y la traza nos dan una guia
para ver si las dos matrices son similares, pero no es suficiente. Las dos matrices pueden tener incluso el mismo polinomio caracteristico, pero aun asi no ser
similares. Vamos a ver si A − λI y B − λI son equivalentes. Se tiene
A − λI
=
∼
∼
∼
∼


5−λ 3
3
 −3

−1 − λ −3
−3
−3
−1 − λ


−3
−3
−1 − λ
 −3

−1 − λ −3
5−λ 3
3


1 0
0
 0 2−λ

−2 + λ
0 3 − (5 − λ) 3 − 1/3 (1 + λ) (5 − λ)


1 0
0
 0 2−λ 0

0 0
3 − 1/3 (1 + λ) (5 − λ) + λ − 2


1 0
0
 0 2−λ 0

0 0
− (1 + λ) (2 − λ)
68
5. FORMAS CANONICAS
y
B − λI
=
∼
∼
∼
∼


−1 − λ −3
3
 6

8 − λ −6
6
6
−4 − λ


6
6
−4 − λ

 6
8 − λ −6
−1 − λ −3
3


1 0
0
 0 2−λ

−2 + λ
0 −3 + 1 + λ 3 − 1/6 (4 + λ) (1 + λ)


1 0
0
 0 2−λ 0

0 0
3 − 1/6 (4 + λ) (1 + λ) − 2 + λ


1 0
0
 0 2−λ 0

0 0
− (−2 + λ) (1 + λ)
es decir, ambas tienen la misma reducción usando operaciones elementales, por lo
que las dos matrices son similares.
Observen cómo el elemento central de la diagonal divide al último. Esto es
muy interesante, en este caso se puede demostrar que A y B son ceros (raices) del
polinomio (1 + λ) (2 − λ). Por el teorema de Cayley-Hamilton sabemos que A y B
2
son ceros de su polinomio caracteristico (1 + λ) (2 − λ) , pero en este caso hay un
polinomio de grado menor (1 + λ) (2 − λ) con esa cararteristica. Esto da pie a la
siguiente definición.
Definición 5.12. Sea A matriz y m(x) polinomio. m se llama polinomio
mı́nimo de A, si m es el polinomio con menor grado que existe, tal que m(A) = 0.
Existe una relación muy interesante entre los polinomios caracteristico y mı́nimo,
ya que éste último divide al primero. Esta afirmación la podemos ver en la siguiente
proposición.
Proposición 5.13. El polinomio minimo de una matriz divide siempre a su
polinomio caracteristico.
Demostración 5.14. Sea P (x) el polinomio caracteristico de la matriz A y m
es su polinomio mı́nimo, se debe tener que P (x) = p1 (x)m(x) + p2 (x), donde p1 (x)
y p2 (x) son polinomios. Esto implica que P (A) = p1 (A)m(A) + p2 (A) = 0, pero
como m(A) = 0, se sigue que p2 (A) = 0. Es claro entonces que si el polinomio caracteristico es de la forma P (x) =
(x − λ1 )n1 (x − λ2 )n2 · · · (x − λs )ns , el polinomio minimo tiene que ser de la forma
m(x) = (x − λ1 )m1 (x − λ2 )m2 · · · (x − λs )ms , con mi ≤ ni para todo i = 1, · · · , s.
La pregunta que sigue es, ¿si dos matrices son similares, como encuentro la
matriz que las relaciona? Ya vimos que las matrices A y B de los ejercicios 5.11
anteriores son similares, estas deben estar relacionadas entre si, tal que debe de
existir algúna matriz no sigular U que cumpla A = U BU −1 . Esta pregunta es la
2. FORMA CANÓNICA DE JORDAN
69
que nos va a ocupar en la sección siguiente, pero por ahora encontremos la matriz
de relación de forma directa en un ejercicio.
Ejercicio 5.15. Encontrar los valores propios y los vectores propios de las
matrices A y B ((5.1) y (5.2)) del ejemplo 5.11. Ver si sus vectores propios son l.i.
En caso que si, construir la matriz diagonal de la clase correspondiente. Encontrar
las matrices U que relacionan a A y B con la matriz diagonal. Encontrar entonces
la matriz U que relaciona a A y B.
Ejercicio 5.16. Mostrar que si λ es valor propio de f y f es invertible, entonces λ−1 es valor propio de f −1 .
Ejercicio 5.17. Mostrar que una matriz y su transpuesta tienen el mismo
polinomio caracteristico.
Ejercicio 5.18. Sea A matriz cuadrada 2 × 2. Mostrar que el polinomio caracteristico de A esta dado por
x2 − (trA) x + det A
Pn=2
donde trA = i=1 (A)ii es la traza de A. (Ayuda: Mostrar primero que para todo
polinomio ax2 +bx+c con raices x1 , x2 , se tiene que x1 +x2 = −b/a y x1 x2 = c/a.)
Ejercicio 5.19. Sea A matriz cuadrada 3 × 3. Mostrar que el polinomio caracteristico de A esta dado por
i
1h
2
(trA) − trA2 x − det A
x3 − (trA) x2 +
2
Ejercicio 5.20. Sea A matriz cuadrada 4 × 4. Mostrar que el polinomio caracteristico de A esta dado por
i
i
1h
1h
2
3
x4 −(trA) x3 + (trA) − trA2 x2 − (trA) − 3 trA2 (trA) + 2 trA3 x−det A
2
6
2. Forma Canónica de Jordan
Veremos solo dos de las formás canónicas más utilizadas en la literatura, la
forma canónica de Jordan y la forma canónica natural. La primera es muy conveniente porque es cuasidiagonal, pero tiene el problema de que el campo de las
matrices deben ser el de los complejos o algún campo cerrado, entonces el representante de la clase no siempre pertenece al campo donde están las matrices. Esto
implica que esta forma canónica es conveniente solo para matrices sobre campos
cerrados. En cambio la forma canónica natural siempre conserva el campo donde se
trabaja, aunque tiene el inconveniente de que no es cuasidiagonal. Veamos primero
la forma canónica de Jordan.
Definición 5.21. Una célula

l 1
 0 l


J =  ...

 0 ···
0 ···
de Jordan es una matriz n × n de la forma

0
··· 0
1
··· 0 

..  = lI + N
..
n
.
. 

l
1 
0
l
70
5. FORMAS CANONICAS
donde

0
0
..
.



Nn = 

 0
0
1
0
···
···
0
1
..
.
···
···
0
0
0
0
..
.






1 
0
Las matrices Nn son matrices n × n y tienen la asombrosa propiedad de
ser nilpotentes de grado n, es decir, (Nn )n = 0. Esta propiedad es crucial
para definir la forma canónica de Jordan. Pero primero observemos la siguiente
proposición.
Proposición 5.22. El polinomio cararteristico de las células de Jordan n × n
n
son de la forma (l − x) .
Demostración 5.23. Se puede ver por cálculo directo que det(J − xI) =
n
(l − x) . Antes de ver el teorema de Jordan, vamos a observar una propiedad muy interesante de las matrices.
Lema 5.24. El determinante de una matriz cuasidiagonal A es igual al producto
de los determinantes de las matrices de su diagonal.
Demostración 5.25. Sea



A=


A1
0
0
..
.
A2
0
···
entonces A se puede escribir como


A1 0 · · · 0
I

..  
 0

I
. 
 0
A=
 .
 .
.
..
 ..
  ..
0 ···
I
0
···
..
0
···
A2
..
···
.
.

0
.. 
. 



As
 
0
..  

. 
···
 
 
I
I
0
0
..
.
I
0
···
···
..
.

0
.. 
. 



As
donde las matrices I son matrices identidad de dimensión conveniente. Se sigue
que det A = det A1 det A2 · · · det As Con esta propiedad ya podemos definir la forma canónica de Jordan a través
del siguiente
Teorema 5.26. Sea A matriz cuadrada de orden n sobre el cuerpo de los
números complejos, (o sobre un cuerpo algebraicamente cerrado) con polinomio
caracteristico P (x) = (x − λ1 )n1 · · · (x − λs )ns , con n = n1 + · · · + ns , y polinomio
minimo m(x) = (x − λ1 )m1 · · · (x − λs )ms . Entonces A es similar a una matriz de
Jordan, de la forma.


J11
0 ···
0

.. 
 0 J12
. 


J = .

.
..
 ..

0 ···
Jsk
2. FORMA CANÓNICA DE JORDAN
71
donde cada λi , con i = 1, · · · , s es representada por las células de Jordan Jik con
k = 1, · · · , ti tal que
1.- Existe al menos una célula de Jordan de orden mi y las demás tendrán
ordenes menores o iguales que mi .
2.- La suma de los ordenes de las células Jik es ni .
3.- El número de células de Jordan Jik , es únicamente determinado para cada
matriz A.
Demostración 5.27. Vamos a ver sólo una idea de la demostración. Construyamos la representación de Jordan de A. Como el polinomio mı́nimo de A es
m, se tiene que m(A) = (A− λ1 I)m1 · · · (A− λs I)ms = 0. Podemos definir matrices
Ai con i = 1, · · · , s tales que (A1 − λ1 I)m1 = 0, · · · , (As − λs I)ms = 0 y escribir



A1 0 · · ·
0


.. 
 0 A2

. 

 − xI  = (x − λ1 )m1 · · · (x − λs )ms
det 

 .

..

 ..

.
0 ···
As
Definamos las matrices Ni = Ai − λi I. Claramente las matrices Ni son nilpom
tentes tales que (Ni ) i = 0. Una representación de estas matrices esta dada por
las matrices nilpotentes


0 1
0
··· 0
 0 0
1
··· 0 


 ..
.. 
.
..
Ni =  .
. 


 0 ···
0
1 
0 ···
0
0
Entonces podemos representar a la matriz A por una matriz de Jordan. La representación quedará determinada al reducir la matriz de Jordan y la matriz A a su
forma equivalente. Además se sigue que:
1.- El orden de Ai es mi , al menos una vez.
2.- La suma de los ordenes de las células Jik es ni , debido a que J y A tienen
el mismo polinomio caracteristico.
3.- El número de células de Jordan Jik , es únicamente determinado para cada
matriz A ya que A y J son similares. Ejemplo 5.28. Tomemos de nuevo la matriz A (5.1) del ejemplo 5.11


5
3
3
A =  −3 −1 −3 
−3 −3 −1
2
ya sabemos que su polinomio caracteristico esta dado por (1 + λ) (2 − λ) y su polinomio mı́nimo por (1 + λ) (2 − λ). Entonces, siguiendo la regla del teorema, se
tiene que, según el polinomio caracteristico, el valor propio 1 aparece una vez en la
diagonal y el valor propio 2 aparece dos veces. Además, segun el polinomio mı́nimo,
los dos valores propios tiene una célula de Jordan de grado 1. Ası́, su forma de
Jordan será


2 0 0
(5.3)
J = 0 2 0 
0 0 −1
72
5. FORMAS CANONICAS
Ejemplo 5.29. Sea ahora A la matriz

6
3
(5.4)
A =  −3 −1
−4 −3

4
−3 
−2
El determinante de esta matriz es −4 y su traza es 3. Su polinomio caracteristico es
de nuevo (1 + λ) (2 − λ)2 y ahora el polinomio mı́nimo es también (1 + λ) (2 − λ)2 ,
como puede verse de tomar


3
0 3
(I + A) (2I − A) =  0
0 0  6= 0.
−3 0 −3
Entonces la matriz de Jordan correspondiente tendrá al menos una célula de Jordan
de grado 2 del valor propio 2, esto es:


2 1 0
(5.5)
J = 0 2 0 
0 0 −1
Hay una forma alternativa de encontrar la forma canónica de Jordan de una
matriz. Observemos lo siguiente. En una matriz diagonal, digamos 3 × 3, con sus
tres valores propios iguales, la forma canónica diagonal de su matriz caracteristica
serı́a

x−λ 0
 0
x−λ
0
0

0

0
x−λ
ya que el polinomio superior de la diagonal divide al siguiente. Si solo dos valores
propios fueran iguales, su matriz canónica diagonal serı́a

1 0
 0 x − λ1
0 0

0

0
(x − λ1 ) (x − λ2 )
y si los tres valores propios son diferentes serı́a

1 0
 0 1
0 0

0

0
(x − λ1 ) (x − λ2 ) (x − λ3 )
Entonces, podemos también constriur la forma canónica de Jordan, calculando
la forma canónica diagonal de la matriz y formando una célula de Jordan para cada
factor invariante del grado del factor invariante correspondiente. Esto se puede
entender mejor con un ejemplo.
Ejemplo 5.30. Como ya vimos, la forma
acteristica de la matriz (5.1)

5
3
A =  −3 −1
−3 −3
canónica diagonal de la matriz car
3
−3 
−1
3. FORMA CANÓNICA NATURAL
73
es la matriz

1
 0
0

0
0

2−λ 0
0
− (1 + λ) (2 − λ)
Por lo que, su forma canónica de Jordan tendrá una célula de Jordan de orden
uno para el factor invariante 2 − λ y otra célula diagonal para el factor invariante
(1 + λ) (2 − λ) (ver (5.3)).
Ejercicio 5.31. Encontrar la forma canónica de Jordan de las matrices


1
1
2
1
  5
0
0
2
1  
1
0
2
−2 2
− 52
 

−3 32
1
1
0
−2 1   −1 1
−1 
3
− 23
−1 −3 0
3
2
Ejercicio 5.32. Sea A una matriz con polinomio caracteristico (x − 2) (x − 1)
y polinomio minimo (x − 2)2 (x − 1) . ¿Cual es su forma canónica de Jordan?
Ejercicio 5.33. Encontrar todas las formás canónicas de Jordan posibles de
3
2
una matriz que tiene polinomio caracteristico (x − 2) (x − 1) .
3. Forma Canónica Natural
La forma canónica natural tiene la ventaja sobre la forma canónica de Jordan,
de ser un representante para las clases de matrices en cualquier campo. A diferencia
de la forma canónica de Jordan, donde el campo tiene que ser algebraicamente
cerrado, como los complejos, la forma canónica natural es adecuada para cualquier
campo. Tiene la desventaja de nos ser diagonal. Hay una enorme semejanza entre
las dos formás canónicas, asi que empecemos por definir las células de la forma
canónica natural.
Definición 5.34. Sea P (x) polinomio de
cipal sea 1, i.e.
P (x) = a0 + a1 x + · · · + an−1 xn−1 + xn
La matriz

0
1
0
 0
0
1

 ..
.
.
..
..
N = .

 0
0
0
−a0 −a1 −a2
grado n, tal que su coeficiente prin-
···
···
..
.
0
0
..
.
···
···
1
−an−1







se llama la matriz asociada al polinomio P (x).
Vamos a calcular el polinomio caracteristico de N . Se obtiene
74
5. FORMAS CANONICAS
det (N − Ix)
=
=

−x
0
..
.
1
−x
..
.



det 

 0
0
−a0 −a1

1
0
 −x 1

a0 det  .
..
 ..
.
0
1
..
.
···
···
..
.
0
−a2
···
···

···
···
..
.
0 ···

−x
 0

(−an−1 − x) det  .
 ..
0
0
0
..
.
1
0
=

0
0
..
.






1
−an−1 − x

−x

 0


 − a1 det  ..

 .
1
−x
..
.
···
···
..
.
0
0
..
.
0
···
−x
0

0 ···
1 ···
.. . .
.
.
0 ···
0
0
..
.
1



 + ···−





a0 + a1 x + · · · + (an−1 + x) xn−1 = P (x)
Este resultado da pie al siguiente lema.
Lema 5.35. El polinomio caracteristico de una matriz asociada al polinomio
P (x) es P (x).
La forma canónica natural consiste en substituir por cada factor invariante
de grado ni su respectiva matriz asociada. Analogamente a la forma canónica
de Jordan, las matrices nilpotentes ahora son subtituidas por matrices naturales.
Veamos algúnos ejemplos.
Ejemplo 5.36. Tomemos de nuevo la matriz (5.1) del ejmplo 5.11


5
3
3
A =  −3 −1 −3 
−3 −3 −1
ya sabemos que su polinomio caracteristico esta dado por (1 + λ) (2 − λ)2 = λ3 −
3λ2 + 4 y su polinomio mı́nimo por (1 + λ) (2 − λ). Ya sabemos que la matriz
caracteristica tiene la forma canónica diagonal


1 0
0
 0 2−λ 0

0 0
− (1 + λ) (2 − λ)
Por lo que, su forma canónica natural tendra
para el factor invariante 2 − λ y otra célula
− (1 + λ) (2 − λ) = λ2 − λ − 2

2 0 0
(5.6)
N = 0 0 1
0 2 1
una célula natural de orden uno
natural para el factor invariante


3. FORMA CANÓNICA NATURAL
Ejemplo 5.37. Sea de nuevo A la matriz

6
3
A =  −3 −1
−4 −3
75
(5.4)

4
−3 
−2
Como ya vimos, el determinante de esta matriz es −4 y a traza es 3. Su polinomio
2
caracteristico es de nuevo (1 + λ) (2 − λ) y ahora el polinomio mı́nimo es también
2
(1 + λ) (2 − λ) . Esta matriz tiene una forma canónica diagonal para su matriz
caracteristica dada por


1 0 0

 0 1 0
2
0 0 (1 + λ) (λ − 2)
2
por lo que solo tiene una célula natural de grado tres para el polinomio (1 + λ) (λ − 2) =
λ3 + 4λ2 − 3. Por lo que su forma natural será


0 1 0
(5.7)
N = 0 0 1 
3 0 −4
Ejemplo 5.38. Observemos como se relacionan las matrices canónicas de Jordan y la canónica natural. Por ejemplo, de las formás canónicas anteriores, se
tiene que (5.6) y (5.3) se ralacionan sugún




2 0 0
2 0 0
 0 0 1  = U  0 2 0  U −1
0 1 2
0 0 −1


1 0
0
b  ab 6= 0
con U =  0 a
0 2a −b
y para (5.7) y (5.5), la

0
 0
−4
relación es

1 0
0 1  =
0 3
con
Ejemplo 5.39. Sea T
tiene solo dos clases,

0
[T ]1 = { 0
a
U
=


2 1 0
U  0 2 0  U −1
0 0 −1


a 0
b
 2a a
−b  ab 6= 0
4a 4a b
= {A | A es matriz 3 × 3 con trA = 0}. Entonces T
1
0
b

0
1 }
0
y

q
[T ]2 = { 0
0
0
0
2q 2

0
1 }
−q
Ejercicio 5.40. Demostrar que el conjunto de las matrices 3 × 3 sin traza
tienen solo las dos clases anteriores.
Ejercicio 5.41. Encontrar su respectivas formás canónicas de Jordan.
76
5. FORMAS CANONICAS
Ejercicio 5.42. Encontrar la forma canónica natural de las matrices
 
  5


1 0
0
−3 32
1
1
0
2
1  
 1 0
1
−2 1   −1 1
−1 
2
2
5
3
1 −2 2
−2 3
−2
−1 −3 0
Ejercicio 5.43. Sea A una matriz con polinomio caracteristico (x − 2)3 (x − 1)2
2
y polinomio minimo (x − 2) (x − 1) . ¿Cual es su forma canónica natural?
Ejercicio 5.44. Encontrar todas las formás canónicas naturales posibles de
3
2
una matriz que tiene polinomio caracteristico (x − 2) (x − 1) .


4 −6 1
Ejercicio 5.45. Sea A =  −6 12 0 . Encuentre sus valores y vec−2 6 1
tores propios. Reduzca la matriz por operaciones elementales (invariantes) hasta
su forma más elemental. ¿Cual es su Rango? Encuentre P tal que A = P Ad P −1 ,
donde Ad es la forma diagonal de A.


−6 1 0
Ejercicio 5.46. Sea B =  12 0 1  Encuentre sus valores y vectores
6 1 1
propios. Reduzca la matriz por operaciones elementales (invariantes) hasta su
forma más elemental. ¿Cual es su Rango?
Ejercicio 5.47. Demuestre de forma sencilla que las matrices A y B anteriores
no son similares.
Ejercicio 5.48. Encuentre la forma canónica diagonal de las matrices caracteristicas de A y B
Part 3
VARIABLE COMPLEJA
CHAPTER 6
EL PLANO COMPLEJO
1. Los Números Complejos
Generalmente se introducen los números argumentando que cada uno de estos
conjuntos resuelve determinada ecuación algebraica. Asi por ejemplo, la ecuación
x − 2 = 0 tiene solución en los números naturales N . Mientras que la ecuación
x+2 = 0 ya no tiene solución en el conjunto de los números naturales, para resolverla
hay que introducir los números enteros Z. Mas aun, la ecuación 2x − 1 = 0 solo
puede resolverse introduciendo los números racionales Q. Hasta aqui se tiene que
N ⊂ Z ⊂ Q. Sin embargo, la ecuación no lineal x2 − 2 = 0 no tiene solución en
los números racionales. Esta ecuación tiene solución solo si se definen los números
irracionales I. Se puede ver que I ∩ Q = φ. Entonces se introducen los números
reales como ℜ = I ∪ Q. Aun ası́, la ecución x2 + 2 = 0 no tiene solución en los
números reales. Entonces se introducen los números imaginarios (que son tan reales
como√
los números reales), tal que x2 + 2 = 0 tenga solución. Se acostumbra escribir
x = 2i, donde i es la unidad imaginaria, tal que i2 = −1, ası́ que x2 = −2.
Finalmente los números complejos son la suma de numeros reales mas numeros
imaginarios. La introducción de los numeros complejos es de gran ayuda en el
análisis, como veremos, con numeros comples se pueden hacer muchas cosas incluso
en el análisis real. Ası́, formalmente los números complejos se definen de la siguiente
manera.
Definición 6.1. El campo de los complejos C se define al conjunto
2
donde i = −1.
C = {z = a + ib | a, b ∈ ℜ}
Notación 6.2. A a se le llama la parte Real de z y a b la parte imaginaria,
Re(z) = a, Im(z) = b.
Notación 6.3. Sea R ⊂ C. A R se le llama una región.
Graficamente los numeros complejos se representan también en coordenas polares. Sea a, b ∈ ℜ, podemos escribir a = r cos (θ) y b = r sin (θ) tal que un
numero
√ complejo z = a + ib = r(cos (θ) + i sin (θ)), vean la figura 1. Se sigue que
r = a2 + b2 y θ = arctan (b/a). A la constante r se le llama el módulo de z y a
θ el argumento de z.
Notación 6.4. A r también se le denota por |z| = r y a θ como θ = arg (z).
Un número complejo queda determinado por r y θ, hasta múltiplos de 2π, es
decir, arg (z) = θ + 2πk, k = 0, ±1, · · ·
Ejercicio 6.5. Encuentre los modulos y argumentos de los siguientes números
complejos
79
80
6. EL PLANO COMPLEJO
Figure 1. Un número complejo se puede representar como z =
x + iy = a + ib = r[cos(θ) + i sin(θ)].
1, 1 + i, 5 + 3i, 1 − i, −5 + 3i, 5 − 3i, −5 − 3i.
La estructura algebraica de los numeros complejos esta basada en la definición
de la suma y el producto entre estos. Esta definición, obviamente se basa en la
estructura de los numeros reales. Formalmente tenemos.
Definición 6.6. Sean z1 , z2 ∈ C, entonces se define
· La suma z1 + z2 = (a1 + ib1 ) + (a2 + ib2 ) = a1 + a2 + i (b1 + b2 ),
· El producto z2 · z1 = (a1 + ib1 ) · (a2 + ib2 ) = a1 a2 − b1 b2 + i (a1 b2 + b1 a2 )
En coordenadas polares, la suma y el producto se ven como:
Corolario 6.7. |z1 · z2 | = |z1 | · |z2 | y arg(z1 · z2 ) = arg (z1 ) + arg (z2 ).
Demostración 6.8. z1 · z2 = r1 r2 (cos (θ1 ) + i sin (θ1 ))(cos (θ2 ) + i sin (θ2 )) =
r1 r2 [cos (θ1 + θ2 ) + i sin (θ1 + θ2 )] La diferencia sustancial de los numeros coplejos con los numeros reales es que
cada numero complejo tiene un acompañante natural a él llamado el complejo
conjugado. Su definición es como sigue.
Definición 6.9. Sea z ∈ C. El complejo conjugado de z = a + ib se define
por z̄ = a − ib
Claramente se tiene,
2
Corolario 6.10. z z̄ = |z|
2. Funciones en el Plano Complejo
En esta sección vamos a estudiar el comportamiento de las funciones en el plano
complejo, es decir, funciones que van del conjunto de los complejos al conjunto de
los complejos. A pesar de que estas funciones son muy parecidas a las funciones en
los reales, existen diferencias sutanciales que le dan una gran riqueza a las funciones
2. FUNCIONES EN EL PLANO COMPLEJO
81
en el plano complejo. Estas deferencias las vamos a utilizar para hacer calculos muy
complejos en el plano real, simplificando la estructura y los calculos. Para iniciar
esta sección, vamos a definir primero una función compleja.
Definición 6.11. Una función en el plano complejo, es un mapeo f : C → C
tal que
a + ib → f (a, b) = u(a, b) + iv(a, b)
Las propiedades fundamentales de funciones reales se pueden extender al caso
de las funciones complejas. De una manera análoga a como se define continuidad
en funciones de variable real, en variable compleja se define continiudad. Solo que
la estructura compleja de estas funciones provocan cambios y sutilezas, que le dan
mucha riquza estructural a las funciones complejas. Vamos a ver esto con cuidado.
Vamos a iniciar con la definición de continuidad, de hecho es la misma definición
que se usa en variable real, o en análisis o en topologia mas adelante. Solo que aqui,
la definición implica algunos cambios interesantes.
Definición 6.12. Sea f : C → C. La función f se llama continua en z ∈ C,
si para toda ǫ > 0, con ǫ ∈ ℜ, uno puede encontrar δ > 0, δ ∈ ℜ, tal que
|z − z ′ | < δ, implica |f (z) − f (z ′ )| < ǫ
En palabras, f es continua en z, si para cualquier número z ′ suficientemente
cerca de z, f (z ′ ) es suficientemente cerca de f (z).
Figure 2. La función f (z) = x + 2iy. A cada punto x + iy del
plano complejo, le asocia x + 2iy.
Ejemplo 6.13. Sea f : C → C, tal que f (z) = x + 2iy, se representa graficamente en la figura 2. Esta función es continua en cero. Veamos esto. De la
definición de continuidad se sigue que |z| < δ implica |x + 2iy| < ǫ, es decir
p
p
x2 + y 2 < δ implica x2 + 4y 2 < ǫ
Si escogemos ǫ = 2δ se cumple la desigualdad, vean la figura 3. Por lo tanto, se
sigue que f es continua en cero.
82
6. EL PLANO COMPLEJO
Figure 3. En el plano complejo de la izquierda se muestra la
región (x2 + y 2 )1/2 < δ, mientras que en el plano de la izquierda
se muestra la región (x2 + 4y 2 )1/2 < δ. Obsrvese como la región
(x2 + y 2 )1/2 < ǫ < 2δ , contiene a la región (x2 + 4y 2 )1/2 < δ.
Ejercicio 6.14. Decir si las siguiente funciones son continuas, o en su caso
en donde no son continuas, usando la definición:
1) f (z) = z 2
2) f (z) = x + 2i y, para z = x + iy.
z̄
3) f (z) = x2 +y
2 , para z = x + iy.
4) f (z) = z + z̄
5) f (z) = z̄
6) f (z) = z z̄
7) f (z) = z − 2z 2
8) f (z) = (z + 2)2
La definición de lı́mite en variable compleja es también análoga a la definición
de lı́mite en variable real. Formalmente la definición de lı́mite de funciones de
variable compleja es como sigue.
Definición 6.15. Sea f : C→ C, y z1 , z2 ∈ C. El lı́mite de f cuando z tiende
a z1 es z2 , si para toda N > 0 existe δ > 0 con N , δ ∈ ℜ tal que |z − z1 | < δ
implica |f (z) − z2 | < N
Notación 6.16. El lı́mite de f cuando z tiende a z1 es z2 se denota
lim f (z) = z2
z→z1
La relación entre lı́mite y continuidad esta dada por las siguientes dos proposiciones.
Proposición 6.17. Si limz→z1 f (z) = z2 y f (z1 ) = z2 , se sigue que f es
continua.
Demostración 6.18. Sabemos que para toda N > 0 existe δ > 0, con N ,
δ ∈ ℜ tal que |z − z1 | < δ implica |f (z) − z2 | < N . Hagamos N = ǫ y z1 = z ′ y
2. FUNCIONES EN EL PLANO COMPLEJO
83
como f (z1 ) = f (z ′ ) = z2 , entonces se tiene que para toda ǫ > 0 existe δ > 0, tal
que |z − z1 | = |z − z ′ | < δ implica |f (z) − z2 | = |f (z) − f (z ′ )| < ǫ. Proposición 6.19. Sea f : C → C continua en z1 , con f (z1 ) = z2 . Entonces
lim f (z) = z2
z→z1
Ejercicio 6.20. Demostrar la proposición.
Ejercicio 6.21. Utilizando la proposición anterior, verificar si las funciones
del ejercicio 6.14 son continuas.
Existe una serie de propiedades de los lı́mites en variable compleja completamente análogas a variable real. Vamos a escribirlas y a escribir solo una demostracion parcial. De hecho la demostración es como en variable real, por eso no
incluiremos toda la demostración.
Teorema 6.22 (sobre lı́mites.). Sean f (z) y F (z) funciones cuyos lı́mites z →
z0 existen y estan dados por
lim F (z) = W0 6= 0
lim f (z) = w0
z→z0
z→z0
Entonces
1)
lim [f (z) + F (z)] = w0 + W0
z→z0
2)
lim [f (z)F (z)] = w0 W0
z→z0
3)
lim
z→z0
w0
f (z)
=
F (z)
W0
4) Si f (z) = u(x, y) + iv(x, y) se sigue
lim f (z) =
z→z0
lim
x→x0 ,y→y0
u(x, y) + i
lim
x→x0 ,y→y0
v(x, y)
Demostración 6.23. Supongamos que F (z) = U (x, y) + iV (x, y) y f (z) =
u(x, y) + iv(x, y). Demostremos el insiso 3). Se tiene que
lim
z→z0
f (z)
F (z)
=
=
=
=
u + iv
U + iV
(u + iv) (U − iV )
lim
z→z0
U2 + V 2
uU
vV
lim
+ 2
x→x0 ,y→y0
U2 + V 2
U +V2
vU
uV
+i
lim
− 2
x→x0 ,y→y0
U2 + V 2
U +V2
v0 V0
u 0 U0
+ 2
U02 + V02
U0 + V02
v0 U0
u0 V0
+i
− 2
U02 + V02
U0 + V02
lim
z→z0
84
6. EL PLANO COMPLEJO
donde en la ultima identidad hemos usados los teoremas de variable real. Entonces,
reagrupando de nuevo se tiene que
u0 + iv0
f (z)
=
lim
z→z0 F (z)
U0 + iV0
Ejercicio 6.24. Demostrar el resto del teorema usando los teoremas similares
de lı́mites en variable real.
Con la propiedad 4) podemos utilizar los teoremas y métodos comunes de variable real para obtener lı́mites de funciones en variable compleja. Este resultado lo
usaremos constentemente en adelante.
3. La Derivada en el Plano Complejo
La derivada de funciones de variable compleja tiene un comportamiento análogo
a la derivación de funciones en los reales. Sin embargo, es aqui donde las sutilezas
del plano complejo empiezan a ser importantes, y las analogı́as se interrumpen
debido a algunas diferencias que hacen del plano complejo algo diferente. Son
estas diferencias las que nos interesan, pero son las analogı́as las que vamos a
utilizar continuamente. Vamos a iniciar con la definición de la derivada en variable
compleja.
Definición 6.25. Sea f : C → C continua en z. La derivada de f en z se
define como
df
f (z + △z) − f (z)
= lim
dz ∆z→0
△z
si este lı́mite existe y es único, se dice que la derivada existe.
Si comparamos la definición anterior con la derivada de funciones en los reales,
veremos que son aparentemente iguales. Pero para ver la diferencia y similitudes,
vamos a ver algunos ejemplos.
Ejemplo 6.26. Sea f (z) = 2x + 2iy, entonces la derivada en cero de esta
función esta dada por
df f (△z) − f (0)
2x + 2iy
= lim
=2
= lim
x→0,y→0 x + iy
△z→0
dz △z
z=0
donde hemos escrito △z = x + iy, ası́ que el lı́mite y por tanto la derivada es 2.
El resultado del ejemplo anterior no es sorprendente, en variable real la función
anterior f (z) = 2z = 2x+2iy también es deribable. Sin embargo veamos el siguiente
ejemplo.
Ejemplo 6.27. Sea f (z) = x + 2iy, entonces la derivada de esta función esta
dada por
df x + 2iy
x2 + 2y 2 + ixy
f (△z) − f (0)
= lim
= lim
= lim
x→0,y→0 x + iy
x→0,y→0
△z→0
dz
△z
x2 + y 2
z=0
pero este lı́mite no conmuta, ya que si tomamos primero x → 0 y luego y → 0, vean
la figura 4, obtenemos
df =2
dz z=0
3. LA DERIVADA EN EL PLANO COMPLEJO
Figure 4.
x + iy a 0.
85
Dos trayectorias por las que se puede ir del punto
Pero si tomamos primero el lı́mite y → 0 y luego x → 0 obtenemos
df =1
dz z=0
lo que nos dice que f no es derivable en z = 0
Ejercicio 6.28. Usando la definición, encontrar la derivada, cuando exista,
de las funciones del ejercicio 6.14. En su caso, decir en que puntos la función no
es derivable.
3.1. Fórmulas de derivación: En variable compleja las formulas de derivación
son generalmente las mismas que las usadas en variable real, si sabemos que la
derivada existe. El problema es saber cuando una función de variable compleja es
derivable. Para saberlo, existen una forma sencilla de determinar si una función
de variable compleja es derivable o no. Esto se hace utilizando las condiciones de
Cauchy-Riemann. Estas condiciones se ven en el siguiente teorema.
Teorema 6.29 (de Cauchy-Riemann). Sea f : C → C tal que f (z) = u(x, y) +
iu(x, y) con u, v ∈ C 1 . Entonces f es derivable en z, sı́ y solo sı́
∂v
∂u
∂v
∂u
=
y
=−
∂x
∂y
∂y
∂x
86
6. EL PLANO COMPLEJO
Demostración 6.30. ⇒) Supongamos f derivable. Entonces el lı́mite
f (z + ∆z) − f (z)
df
= lim
dz ∆z→0
∆z
existe y es único. Según los teoremas de lı́mite real, este lı́mite no depende de la
trayectoria por la cual ∆z → 0. Tomemos dos trayectorias diferentes: 1) ∆y → 0
y luego ∆x → 0, y la trayectoria 2) ∆x → 0 y luego ∆y → 0.
Entonces para 1)
u(x, y + ∆y) − u(x, y)
df
∂u ∂v
v(x, y + ∆y) − v(x, y) = lim
+i
= −i ∂y + ∂y
dz ∆y=0 i∆y
i∆y
f′ =
Para la trayectoria 2) se tiene
u(x + ∆x, y) − u(x, y)
df
v(x + ∆x, y) − v(x, y) ∂u
∂v
= lim
+i
= ∂x + i ∂x
dz ∆x→0 ∆x
∆x
Lo que implica las condiciones de Cauchy-Riemann
⇐) Supongamos que se cumplen las condiciones de Cauchy-Riemann. Como
u, v y son de clase C 1 , son continuas y con derivadas continuas, entonces podemos
escribir por el teorema del valor medio que
∆u = u(x + ∆x, y + ∆y) − u(x, y) =
∂u
∂u
∆x +
∆y + ǫ1 ∆x + ǫ2 ∆y
∂x
∂y
donde ǫ1 y ǫ2 tienden a cero cuando ∆x y ∆y tienden a cero. Lo mismo para ∆v.
Entonces
∆f
=
=
f (z + ∆z) − f (z) = ∆u + i∆v
∂u
∂u
∆x +
∆y + ǫ1 ∆x + ǫ2 ∆y
∂x
∂y
∂v
∂v
−i( ∆x +
∆y + ǫ3 ∆x + ǫ4 ∆y)
∂x
∂y
Como las condiciones de Cauchy-Reimann se cumplen, tenemos
∆f =
∂u
∂v
(∆x + i∆y) + i (∆x + i∆y) + ∆xδ1 + ∆yδ2
∂x
∂x
donde δ1 y δ2 son combinaciones lineales de las ǫ’s. Ahora bien, |∆x| ≤ |∆z| y
|∆y| ≤ |∆z|, por lo tanto |∆x/∆z| ≤ 1 y |∆y/∆z| ≤ 1. Ası́ que
∂u
∂v
∂v
∂u
∆f
′
=
+i
= −i
+i
f (z) := lim
∆z→0 ∆z
∂x
∂x
∂y
∂y
ya que los últimos términos tienden a cero, cuando ∆z → 0. Por lo tanto la
derivada de f (z) existe. En lo que sigue vamos a trabajar con funciones que son derivables en una región
o al menos no lo son en puntos definidos. Cuando una función es derivable en un
entorno, en una región del espacio complejo, se dice que es analı́tica ahi. El resto de
nuestro estudio de funciones de variable compleja se limitara al estudio de funciones
analı́ticas, o no analı́ticas en solo puntos bien definidos. Vamos a ver la definición
formal de función analı́tica.
3. LA DERIVADA EN EL PLANO COMPLEJO
87
Definición 6.31. Una función f : C → C es analı́tica, holomorfa ó regular
en un punto z0 ∈ C, si su derivada existe en un entorno de z0 , es decir, si existe
un ǫ > 0 tal que f ′ existe para todo z ∈ {z | |z − z0 | < ǫ, ǫ ∈ ℜ+ }
Para familiarizarnos con esta importate definición, vamos a ver algunos ejemplos.
Ejemplo 6.32. Sea la función f (z) = |z|2 = z z̄ = x2 + y 2 . Las condiciones de
Cauchy-Riemann para esta función son
∂u
∂v
= 2x;
=0
∂x
∂y
y
∂u
∂v
= 2y;
=0
∂y
∂x
y solo se cumplen para z = 0. Por lo que |z|2 no es analı́tica, pues solo es derivable
en z = 0.
2
Ejemplo 6.33. Por otro lado, para la función f (z) = z 2 = (x + iy) = x2 −
2
y + 2ixy se tiene que u = x2 − y 2 y v = 2xy, ası́ que
∂u
∂x
∂u
y
∂y
∂v
=2x
∂y
∂v
= −2y;
=2y
∂x
= 2x;
Es decir, las condiciones de Cauchy-Riemann se cumplen siempre, por lo que z 2 es
una función analı́tica.
Ejercicio 6.34. Usando las condiciones de Cauchy-Riemann, verificar cual de
las funciones del ejercicio 6.14 son analı́ticas y en que puntos no lo son.
Cuando un función compleja no es analı́tica en puntos determinados, se dice
que la función es singular en esos puntos. Al punto mismo se le llama singularidad
o polo. Formalmente se tiene.
Definición 6.35. Sea f : C ⇀ C analı́tica en cada punto en el entorno de z0 ,
pero no en z0 . Se dice que z0 es un punto singular de f .
Veamos un ejemplo de singularidad.
Ejemplo 6.36. Sea f (z) = 1/z. Su derivada es f ′ = −1/z 2. Esta función se
puede escribir como
1
f (z) =
x + iy
x
iy
=
−i 2
2
2
x +y
x + y2
por lo que u = x/ x2 + y 2 y v = −y/ x2 + y 2 . Entonces las condiciones de
Cauchy-Riemann son
∂v
x2 − y 2
=−
2 y
∂y
(x2 + y 2 )
∂u
∂x
=
∂u
∂y
= −
∂v
2xy
=−
2
∂x
(x2 + y 2 )
88
6. EL PLANO COMPLEJO
las cuales no estan definidas en z = 0. La función es analı́tica para z 6= 0, pero no
para z = 0, entonces z = 0 es un punto singular de f .
Comentario 6.37. Todo polinomio en z, P (z) = a0 + a1 z + a2 z 2 + · · · + an z n
es analı́tico, ya que sus derivadas existen para toda z ∈ C.
Ejercicio 6.38. Señale los puntos singulares de las funciones del ejercicio
6.14.
Existen algunas propiedades muy importantes para decidir si una función es
analı́tica o no. Estas propiedades simplifican enormemente el trabajo para poder
saber si una función es analı́tica en alguna región. Vamos a ver estas propiedades
en la siguente proposición.
Proposición 6.39. Sean P (z) y Q(z) funciones analı́ticos en una región R ⊂
C. Entonces
1) P · Q es analı́tica.
2) P + Q es analı́tica.
3) P/Q es analı́tico para toda región R1 ⊂ C tal que Q 6= 0
4) P ◦ Q es analı́tica
Demostración 6.40. Vamos a demostrar 3). Sean P y Q analı́ticas y Q 6= 0
en una región R1 . Entonces
1
d
P d
d P
=
Q+ P
−
dz Q
Q
Q dz
dz
como P y Q son analı́ticas y Q 6= 0, las derivadas de P y Q existen en un entorno
y las funciones P y Q existen en ese entorno y son continuas. Dado que Q 6= 0 en
R1 , la función 1/Q es continua en ese entorno y por lo tanto la derivada de P/Q
existe y es continua en R1 . Es decir, P/Q es analı́tica. Ejercicio 6.41. Demostrar el resto de la proposición.
Ejercicio 6.42. Utilizando esta proposición, confirme cual de las siguiente
funciones son analı́ticas y en que región.
1) f (z) = z 2
2) f (z) = x + 2i y, para z = x + iy.
z̄
3) f (z) = x2 +y
2 , para z = x + iy.
1
4) f (z) = z+2z̄
5) f (z) = z̄1
6) f (z) = z1z̄
1
7) f (z) = z−2z
2
1
8) f (z) = z+2
4. Funciones Armónicas
Una conclusión inmediata de las condiciones de Cauchy-Riemman son el hecho
que las funciones reales que forman la función de variable compleja, cumplen la
4. FUNCIONES ARMÓNICAS
89
ecuación de Laplace en el plano, en la región donde son analı́ticas. A estas funciones
se les llama armónicas. Para ver esto, vamos a seguir el siguiente razonamiento.
Sea f (z) = u + iv una función analı́tica en alguna región alrededor de z, es
decir, se tiene que.
∂u
∂v ∂u
∂v
=
,
=−
∂x
∂y ∂y
∂x
entonces f ′ (z) existe. Si las funciones u y v tienen derivadas continuas y a su vez
derivables, se debe cumplir que
(6.1)
∂2v
∂2v
=
∂x∂y ∂y∂x
Vamos a usar las condiciones de Cauchy-Riemann en la indentidad (6.1), se obtiene
que
∂2u
∂2v
=
∂x∂y
∂x2
∂2v
∂ 2u
=− 2
∂x∂y
∂y
Si sumamos estas dos indentidades, obtenemos
∂2u ∂2u
+ 2 =0
∂x2
∂y
Esta es es la ecuación de Laplace para la función u. A estas funciones se les llama
funciones armónicas. Formalmente tenemos.
Definición 6.43. Toda función que cumple la ecuación de Laplace
∂2u ∂2u
+ 2 =0
∂x2
∂y
se llama armónica.
Notación 6.44. también se denota la ecuación de Laplace por
∇2 u =
∂2u ∂2u
+ 2 =0
∂x2
∂y
.
Análogamente, si f es analı́tica, se tiene que
∂2v
∂2v
+
=0
∂x2
∂y 2
Entonces se tiene el siguiente lema.
Lema 6.45. Para toda función donde f = u + iv y se tenga que f es analı́tica
se sigue entonces que u y v son armónicas.
Ejercicio 6.46. Diga cual de las funciones de los ejercicios 6.14 y 6.42 son
armónicas.
90
6. EL PLANO COMPLEJO
4.1. Funciones Elementales. Las funciones elementales en variable real pueden
ser extendidas a variable compleja de una manera sencilla. Para definir funciones
en variable compleja lo que se hace es tomar las funciones polinomiales y simplemente se traducen cambiando la variable real por la compleja, x ⇀ z. Las funciones
trasendentes se traducen a variable compleja mas indirectamente: en variable compleja son definidas según su expresión en series de Taylor. Por ejemplo:
ez = 1 + z +
o análogamente
1 2
z + ···
2!
1 iz
(e + e−iz )
2
1 iz
(e − e−iz )
sin (z) =
2
etc. Estas funciones elementales se derivan, suman ó multiplican igual que las funciones de variables reales. Sin embargo, las funciones ahora no se ven graficamente
igual a las de variable real. Por ejemplo, es fácil ver aquı́ también que se sigue la
identidad
ez = ex+iy = ex (cos(y) + i sin(y))
por lo que la exponencial de un número complejo es una función periódica, es decir,
ez+2ikπ = ez , para todo k = 0, ±1, ±2, · · · . Esto causa que la función inversa a la
exponencial no sea una función, ya que esta multivaluada. Por eso se acostrumbra
tomar a la función ln como la que se obtiene para k = 0.
Otra diferencia interesante es que las funciones trigonometicas y las hiperbolicas
estan relacionadas entre sı́. Por ejemplo, sin(z) = −i sinh(iz), o cos(z) = cosh(iz),
etc.
cos (z) =
Ejercicio 6.47. Usando esta analogia, verifique cual de las siguintes funciones
son analı́ticas y armónicas y en que puntos.
1) f (z) = ez
2) f (z) = sin (z)
3) f (z) = cos (z)
4) f (z) = ln (z − 1)
5) f (z) = sinh (z)
6) f (z) = cosh (z)
7) f (z) = arcsin (z)
8) f (z) = arctan (z)
5. La Integral en el Plano Complejo
De nuevo existe un analogia estrecha entre la integración de variable real y la
integración en variable compleja. Pero existen sutilezas que las hacen diferentes.
Por ejemplo, a diferencia de la integración en una variable real, la integración en
variable compleja es equivalente a la integración en un plano, llamado el plano complejo. Es por eso que para definir la integral de una función compleja, necesitamos
definir una curva por donde se va a llevar a cabo la integrar. Entonces iniciemos
con las siguientes definiciones.
Definición 6.48. Sea γ : ℜ ⇀ C un mapeo. Si γ es de clase C 0 se dice que γ
es una curva en C, vean la figura 5.
5. LA INTEGRAL EN EL PLANO COMPLEJO
91
Figure 5. Una curva definida en el plano complejo. Una curva
es un mapeo que va de los números reales al plano complejo.
Definición 6.49. Sea γ una curva en C y P una partición del intervalo (0, 1)
con γ : (0, 1) → C. Si ti ∈ P, sea γ(ti ) = zi y ∆j z = zj − zj−1 , vean la figura 6.
Sea zj cualquier punto en la curva entre zj−1 y zj . La integral de f (z) a lo largo
de γ se define como.
Figure 6. Una partición del intervalo (0, 1) mapea una curva
partida en secciones, dando como resultado una particin de la
curva.
Z
γ
f (z)dz = lim
n→∞
n
X
f (zj )∆j z
j=1
La integración de funciones de variable compleja se puede reducir a integraciones en los reales, separando la función compleja en su parte real y su parte
imaginaria. Esta separación la podemos ver en el siguiente teorema.
92
6. EL PLANO COMPLEJO
Teorema 6.50. Sea f (z) = u + iv una función f : C ⇀ C. La integral de f a
lo largo de una curva γ esta dada por
Z
Z
Z
(udx − vdy) + i (vdx + udy)
f (z)dz =
γ
γ
γ
donde las integrales del lado derecho son integrales de linea reales.
Demostración 6.51. Sea f = u(x, y) + iv(x, y) y sean
∆j z = zj − zj−1 = xj − xj−1 + i(yj − yj−1 ) = ∆j x + i∆j y
j = 1, · · · , n. De la definición.
Z
n
X
[u(x′j , yj′ ) + iv(x′j , yj′ )](∆j x + i∆j y)
f (z)dz = lim
n→∞
γ
=
lim
n→∞
j=1
n
X
j=1
+i lim
n→∞
[u(x′j , yj′ )∆j x − v(x′j , yj′ )∆j y] +
n
X
[v(x′j , yj′ )∆j x + u(x′j , yj′ )∆j y]
j=1
Estos últimos lı́mites son las integrales de linea de las funciones correspondientes,
ası́ se sigue el teorema. Comentario 6.52. Si podemos representar γ en su forma paramétrica, tal que
γ : ℜ ⇀ C, t → γ(t) = φ(t) + iψ(t) = x + iy, entonces se tiene que dx = φ′ dt,
dy = ψ ′ dt y la integral
Z t2
Z t2
Z
(vφ′ + uψ ′ )dt
(uφ′ − vψ ′ )dt + i
f (z)dz =
t1
t1
γ
la cual existe si f (z) es continua.
Corolario 6.53. Sean γ una curva formada por un número finito de curvas
γ1 , · · · , γn . Entonces
Z
Z
Z
Z
f (z)dz
f (z)dz +
f (z)dz + · · · +
f (z)dz =
γ1
γ
γn
γ2
Veamos algunos ejemplos sencillos para familiarizarnos con el teorema anterior.
Ejemplo 6.54. Vamos a calcular la integral
Z 2+i
z 2 dz
I1 =
0
por la trayectoria 0A de la figura 7, que es la linea recta entre 0 → A = 2 + i dada
por y = 1/2x. Se tiene que z 2 = x2 − y 2 + 2xyi y dz = dx + idy. Entonces
Z
Z
2
2
I1 = [(x − y )dx − xy dy] + i [2xy dx + (x2 − y 2 )dy]
γ
γ
Sobre OA, x = 2y y dx = 2dy
Z
Z 1
2
2
2
(4y − y )2dy − 2y dy + i
I1 =
0
0
1
2 11
8y 2 dy + (4y 2 − y 2 )dy = + i
3
3
5. LA INTEGRAL EN EL PLANO COMPLEJO
93
Figure 7. Las trayectorias que unen el origen con el punto 2 + i.
Ejemplo 6.55. Ahora tomemos otra trayectoria. Vayamos por el eje de las x
hasta el punto B = (2, 0) y luego subamos por la recta perpendicular hasta A = (2, i).
Por la trayectoria 0BA. A lo largo de 0B, z = x, dz = dx. A lo largo de BA ,
z = 2 + iy, dz = idy. Se obtiene
Z 2
Z 1
2 11
8 11
2
i(4 − y 2 ) − 4y dy = + i − 2 = + i
I2 =
x dx +
3
3
3
3
0
0
es decir
2+i
1 2 11
1
I2 = I1 = z 3 = (2 + i)3 = + i
3 0
3
3
3
R 2
Ejemplo 6.56. Evaluemos la integral I = γ z dz a lo largo del cı́rculo de
radio 1, como en la figura 8, es decir a lo largo de la trayectoria r2 = x2 + y 2 = 1.
Para hacer esta integral, conviene hacer un cambio de variable, sean x = r cos (θ),
y = r sin (θ), tal que x + iy = cos (θ) + i sin (θ) = eiθ . Entonces z = eiθ y por tanto
dz = ieiθ dθ sobre el cı́rculo. Se tiene que
Z 2π
2π
1
I2 = i
e2iθ eiθ dθ = e3iθ 0 = 0
3
0
Ejemplo 6.57. Evaluemos ahora la integral
Z
1
dz
I=
z
γ
a lo largo del cı́rculo de radio 1, de nuevo como en la figura 8. también hacemos el
cambio de variable x = cos (θ), y = sin (θ). Se tiene que
Z 2π
I2 = i
eiθ e−iθ dθ = 2πi
0
94
6. EL PLANO COMPLEJO
Figure 8. La trayectoria dada por el crculo de radio 1, x2 + y 2 =
cos(θ) + i sin(θ) = eiθ .
R
Ejercicio 6.58. Evaluar la integral γ f (z)dz, donde f (z) son las funciones
del ejercicio 6.42 y γ es la trayectoria dada por |z| = 1.
Las propiedades de las integrales en variable compleja es muy semajante a
las propiedades de las integrales de variable real. Sin embargo hay diferencias
sustanciales que es justamente lo que hace tan importante el estudio de las funciones
de variable compleja y su integración. Estas diferencias las veremos mas adelante,
por ahora veamos sus propiedades.
Proposición 6.59 (Propiedades de las integrales.). Sea f : C ⇀ C integrable,
γ y β trayectorias. Entonces, se cumple que
a)
Z
Z
f (z)dz = −
f (z)dz
−γ
γ
b)
kf (z)dz = k
Z
(f (z) + g(z)) dz =
γ
c)
Z
Z
γ
f (z)dz para toda k ∈ C
Z
γ
f (z)dz +
Z
(z)dz
γ
Demostración 6.60. La demostración se sigue de las propiedades de integrales
de linea. 5. LA INTEGRAL EN EL PLANO COMPLEJO
95
El comportamiente de las dos integrales de los ejemplos y ejercicios anteriores
es generico y corresponde a un teorema de variable compleja muy importante. Este
es:
Teorema 6.61. Sea f : C ⇀ C univaluada y analı́tica dentro y sobre una curva
cerrada γ, entonces.
Z
f (z)dz = 0
γ
Demostración 6.62. Usando el teorema de Green en el plano
Z
Z Z
∂Q ∂P
−
)dx dy
(P dx + Qdy) =
(
∂y
R ∂x
y usando f (z) = u + iv, y como f (z) es continua, obtenemos,
Z
Z Z
∂v
∂u
(
(udx − vdy) = −
+
)dx dy
∂y
R ∂x
y
Z
Z Z
∂u ∂v
−
)dx dy
(
(vdx + udy) =
∂y
R ∂x
Pero como f es anaı́tica, ambas integrales son cero, por las condiciones de CauchyRiemann, (la hipótesis f (z) continua incluso se puede eliminar). Definición 6.63. Sea R ⊂ C una región en C. Decimos que R es simplemente
conexa, si toda curva cerrada considerada dentro de ella, sólo contiene puntos de
R, vean la figura 9.
Definición 6.64. Una región R que no es simplemente conexa, se llama de
conexión múltiple.
Ejemplo 6.65. La figura 10 muestra una región de conexión múltiple. Los
puntos dentro de C2 y C3 no están en C1 .
A partir de aqui ya podemos iniciar un conjunto de teoremas y resultados
para la integración de funciones de variable compleja. Estos teoremas son los que
utilizaremos en la practica para multiples cosas. Vamos a iniciar con un teorema
para la integración de funciones analı́ticas, univaluadas en regiones de conexión
multiple.
Teorema 6.66. Sea f (z) una función univaluada y analı́tica en y sobre el
contorno de una región de conexión multiple R. Si B es el contorno de R formado
por un número finito de curvas cerradas, independientes se tiene que:
Z
f (z)dz = 0
B
Demostración 6.67. Se toma una trayectoria cerrada unica en la región de
conexión multiple, como el ejemplo que se muestra en la figura 11. Otro resultado importante es que la integración de funciones analı́ticas no depende de la curva cerrada sobre la que se integra.
96
6. EL PLANO COMPLEJO
Figure 9. Una región R es simplemente conexa, si toda curva
cerrada considerada dentro de ella, sólo contiene puntos de R. Aquı́
se ven dos regiones: C2 , en donde toda curva cerrada contiene
sólo puntos de C2 , es decir, la curva que la rodea se puede hacer
tan pequeña como sea, y el cı́rculo que rodea al agujero C3 , que
no puede hacerse tan pequeño como se quiera. Por eso C1 no es
simplemente conexa.
Teorema 6.68. Sea f : C ⇀ C integrable. Si f (z) es analı́tica, se sigue que
Z
Z
f (z)
f (z) =
γ1
γ2
para todas dos trayectorias cerradas γ1 y γ2 , es decir, trayectorias que inician y
terminan en el mismo punto en C .
Demostración 6.69. −γ1 ◦ γ2 = γ es cerrada. Ver figura 12. Veamos un ejemplo para clarificar estos últimos resultados.
Ejemplo 6.70. Integremos la función 1/ z 2 + 16 en una región entre dos
cı́rculos concentricos alrededor de 0, como se muestra en la figura 13. Esta función
es singular en z = ±4i. Sobre el cı́rculo exterior, z = 2eiθ y sobre el interior se
tiene que z = eiθ . Entonces separemos la integración en los dos cı́rculos, se tiene:
Z
Z 2π
Z 2π
dz
2eiθ dθ
eiθ dθ
=
i
+
i
2
4e2iθ + 16
e2iθ + 16
B z + 16
0
0
2π
2π
1
1
1 2iθ 1 2iθ =
arctan
e
+ 4 arctan 4 e
4
2
0
= 0
0
5. LA INTEGRAL EN EL PLANO COMPLEJO
97
Figure 10. La figura muestra una región de conexión múltiple.
Los puntos dentro de C2 y C3 no están en C1 , son agujeros de esta
región.
ya que e0 = e4iπ = 1. Es mas, podemos ver que
Z
0
2π
2eiθ dθ
=−
4e2iθ + 16
Z
0
2π
eiθ dθ
+ 16
e2iθ
que corresponde a la integral a lo largo de cada cı́rculo por separado, pero en sentido
contrario.
Ejercicio 6.71. Usando los teoremas anteriores, diga en que regiones las funciones de los ejercicios 6.14 y 6.42 tienen integrales diferentes de cero para trayectorias cerrdas.
Análogamente al teorema fundamental del cálculo, aqui también se puede ver
que la integral de una función analı́tica, es su antiderivada. Por lo que la analogia
de la integración de funciones analı́ticas con funciones de variable real, es muy
profunda. Veamos este teorema.
Teorema 6.72. Sean f (z) : C ⇀ C y F (z) : C ⇀ C funciones analı́ticas. Si
Z z
f (z ′ )dz ′ , entonces F ′ (z) = f (z)
F (z) =
z0
Ejercicio 6.73. Demostrar el teorema.
La integral de una función analı́tica es entonces analı́tica.
98
6. EL PLANO COMPLEJO
Figure 11. Región de conexión múltiple unida con trayectorias
que la unen a la trayectoria principal para formar una trayectoria
cerrada única.
6. La Integral de Cauchy
Uno de los teoremas mas importantes en varaiable compleja y que mas vamos a
usar en adelante es el teorema de Cauchy. Bası́camente es una fórmula para evaluar
integrales que son singulares en un punto y queremos llevar a cabo la integral en
una región que contenga la singularidad. Como vimos, la integral cerrada de una
función analı́tica es cero. Pero la singularidad contenida en la región de integración
hace que la integral de la función singular ya no sea cero. Lo bonito del teorema
es que no solo nos dice que la integral existe, sino nos da una fórmula muy simple
para calcularla. Veamos este teorema.
Teorema 6.74 (de Cauchy). Sea f : C ⇀ C función univaluada y analı́tica
dentro y sobre una curva cerrada γ. Si z0 es cualquier punto interior a γ, se tiene
que
Z
f (z)
1
dz
f (z0 ) =
2πi γ z − z0
A esta integral se le llama fórmula de la integral de Cauchy.
Demostración 6.75. Sea γ una curva que contenga z0 , vean la figura 14. Sea
r0 = |z − z0 |, tal que γ0 = {z ∈ C | z − z0 | ≤ r} ⊆ γ(ℜ). Como f (z) es analı́tica, se
sigue que f (z)/ (z − z0 ) es analı́tica, salvo en z = z0 . Por el teorema de conexión
multiple de Cauchy, se tiene
Z
Z
f (z)
f (z)
−
=0
z
−
z
z
− z0
0
γ0
γ
6. LA INTEGRAL DE CAUCHY
99
Figure 12. La composición de las dos trayectorias 1 y 2 es
cerrada. Obviamente esta trayectoria se une en algún lugar a través
de una recta que va y regresa como en la figura anterior.
es decir:
Z
γ
f (z)dz
= f (z0 )
z − z0
iθ
Z
γ0
dz
+
z − z0
Z
γ0
iθ
f (z) − f (z0 )
dz
z − z0
Sobre γ0 , (z − z0 ) = r0 e , por lo que dz = ir0 e dθ, es decir
Z
Z 2π −iθ
dz
e
=
ir0 eiθ dθ = 2πi
r0
γ0 z − z 0
0
Como f (z) es continua, esto implica que para toda ǫ ∈ ℜ, existe δ > 0 tal que
|z − z0 | < δ, implica que |f (z) − f (z0 )| < ǫ. Tomemos δ = r0 , entonces
Z
Z
Z
|f (z) − f (z0 )|
ǫ
f (z) − f (z0 ) dz ≤
|dz| <
|dz|
z − z0
|z − z0 |
r0 γ0
γ0
γ0
Z 2π
ǫ
ǫ
=
|ir0 eiθ dθ| = 2π r0 = ǫ2π
r0 0
r0
Por lo que esta integral será más pequeña que 2πǫ, que tiene el valor tan pequeño
como se quiera. Por lo que esta integral es cero. Una implicación inmediata, es que si derivamos la fórmula de Cauchy obtenemos una fórmula equivalente. Es decir.
100
6. EL PLANO COMPLEJO
Figure 13. Trayectoria de integración dada por dos cı́rculos
centrados en el origen.
Corolario 6.76.
1
f (z0 ) =
2πi
′
Z
γ
f (z)
dz
(z − z0 )2
Claramente este proceso se puede llevar a cabo para obtener las derivadas de
orden mayor. Lo que sigue es aprender a usar la fórmula. Para esto proponemos
los siguientes ejercicios.
Ejercicio
6.77. Realice las siguientes integrales
R
1) γ z 2 dz, donde γ es cualquier trayectoria cerrada.
R
2) γ cos(z)/(z + 1)2 dz, donde γ es un cı́rculo de radio 1/2 y centro en cero.
R
3) γ cos(z)/(z + 1)2 dz, donde γ es un cı́rculo de radio 2 y centro en cero.
R 2z+1
4) γ z+z
dz, donde γ es un cı́rculo de radio 2 y centro en cero.
R 2z+12
5) γ z+z2 dz, donde γ es un cı́rculo de radio 1/2 y centro en cero.
R
3
2
−1
6) γ 4zz(z+z
2 −1) dz, donde γ es un cı́rculo de radio 2 y centro en cero.
R 4z3 +z2 −1
7) γ z(z2 −1) dz, donde γ es un cı́rculo de radio 1/2 y centro en cero.
R 2 −2z−1
8) γ z z+z
dz, donde γ es un cı́rculo de radio 1/2 y centro en 1.
2
El teorema y el corolario anteriores son de suma importancia para evaluar
integrales, tanto en el caso de variable compleja como en variable real. Mas adelante
6. LA INTEGRAL DE CAUCHY
101
Figure 14. Trayectoria de integración utilizada en el teorema de Cauchy.
dedicaremos una sección a este importante resultado. Por ahora vamos a intruducir
otra consecuencia directa de la fórmula de Cauchy que nos servira para la evaluación
de integrales. Este teorema es el siguiente.
Teorema 6.78. Sea f : C → C una función univaluada y analıtica en un punto,
entonces sus derivadas de todos los órdenes, f ′ (z), f ′′ (z), · · · , son también funciones
analı́ticas en dicho punto.
Demostración 6.79. f (z) analı́tica implica que f ′ (z) existe en algún entorno
para el cual f (z) es analı́tica. Si usamos el corolario anterior, encontramos que
Z
2!
f ′ (z)
′′
dz
f (z0 ) =
2πi γ (z − z0 )3
Usemos el entorno |z − z1 | = r1 dentro del entorno cubierto por γ, entonces f ′′ (z0 )
existe y por tanto f ′ (z0 ) es analı́tica. Repitiendo el argumento se sigue que f (n) (z0 )
es analı́tica. Esto implica que si f = u + iv, entonces u y v, serı́an funciones de
clase C ∞ . Este teorema nos conduce a la fórmula
Z
n!
f (z)dz
(6.2)
f (n) (z0 ) =
2πi γ (z − z0 )n+1
n = 1, 2, · · ·
Claramente esta fórmula se cumple igual si en vez de una región conexa, se
toma una región de conexión múltiple que contenga en su interior al punto z0 . El
102
6. EL PLANO COMPLEJO
resultado opuesto también es válido, es decir, si la integral de una función es cero
para cualquier trayectoria cerrada, entonces la función es analı́tica. A este teorema
se conoce como el teorema de Morera.
Teorema 6.80 (de Morera). Sea f : C ⇀ C una función continua en la región
R. Si para cualquier trayectoria γ cuyo contorno este dentro de R se cumple que
Z
f (z)dz = 0
γ
entonces f (z) es analı́tica en R.
Demostración 6.81. Sin Dem. Ejercicio 6.82. Realice las siguientes integrales
5
R
1) γ ez / z 2 + 1 dz, donde γ es cualquier trayectoria cerrada.
R
2) γ cos(z)/(z − 1)5 dz, donde γ es un cı́rculo de radio 1/2 y centro en cero.
R
3) γ cos(z)/(z − 1)5 dz, donde γ es un cı́rculo de radio 1/2 y centro en 1.
R
3
−z 2 +5z+1
dz, donde γ es un cı́rculo de radio 2 y centro en cero.
4) γ 3z (z
2
2
R 3z3 −z−1)
2
+5z+1
5) γ (z2 −1)2 dz, donde γ es un cı́rculo de radio 1 y centro en 1.
CHAPTER 7
SERIES
Una de las aplicaciones prácticas de la teorı́a de variable compleja es sin duda
el hecho de que esta teorı́a nos da métodos muy poderosos para evaluar integrales.
El objetivo de este capitulo es introducir una serie de métodos utilizando todo lo
que hemos aprendido y la teorı́a de series en variable compleja, para poder evaluar
integrales complicadas. Para eso, es necesario intruducir la teorı́a de series en
variable compleja y es lo que haremos primero.
1. Series en el Plano Complejo
La definición de las series en variable compleja es completamente análogo a las
series en variable real. Una serie es entonces una suma de la forma
∞
X
(7.1)
z1 + z2 + · · · + zn + · · · =
zn
n=1
La serie será convergente si su parte real y su parte imaginaria lo son por separado.
Para determinar si una serie converge entonces, se usan los métodos comunes en
la determinación de convergencia en variable real. Vamos a recordar brevemente
algunos criterios.
1)PCriterio de comparación. Si 0 ≤
n ≤ bn , para toda n, entonces si la
Pa
∞
∞
serie n=1 bn converge, también converge n=1 an .
2) Prueba del cociente. Sea an > 0 para todo n y
an+1
lim
=r
n→∞ an
P∞
entonces n=1 an converge si r < 1.
3) Teorema de Leibniz. Si a1 ≥ a2 ≥ · · · ≥ 0 y
lim an = 0
n→∞
P∞
entonces la serie n=1 (−1)n+1 an = a1 − a2 + a3 − a4 · · · converge.
Para aplicar estos criterios de convergencia se toman la parte real y la imaginaria por separado y se aplica entonces a las series de variable compleja. Sin
embargo, podemos definir algo mas fuerte que convergente, que se llama absolutamente convergete. Su definición es como sigue:
Definición 7.1. Una serie del tipo (7.1) convergente, se dice absolutamente
convergente si
∞
X
|z1 | + |z2 | + · · · + |zn | + · · · =
|zn |
n=1
es convergente
103
104
7. SERIES
Si una serie es absolutamente convergente, entonces es convergente.
Vamos a ver un ejemplo de esta definición en forma de teorema.
Teorema 7.2 (de Abel). Sea la serie
c0 + c1 z + · · · + cn z n + · · · =
(7.2)
∞
X
cn z n
n=1
Si esta serie converge para algún valor zo , entonces la serie converge absolutamente
para todos los valores z tales que |z| < |zo |
P∞
Demostración 7.3. Por hipótesis se tiene que n=1 cn zon convege, por lo que
|cn zon | < M es acotado para toda n y para alguna M ∈ ℜ. Sea r = |z/zo|, entonces
n
n
n z |cn z | = |cn zo | < M rn
zo
por lo que, usando el criterio de comparación de las series, se tiene que si r < 1,
la serie converge absolutamente. Veamos otros ejemplos.
Ejemplo 7.4. Sea la serie
S=
∞
X
ein
n2
n=1
Claramente podemos descomponer esta serie en su parte real y su parte imaginaria
como
∞ X
sin(n)
cos(n)
+
i
S=
n2
n2
n=1
P∞
Primero observemos que el módulo de los términos de la serie es n=1 1/n2 y ésta
serie es convergente, por lo que la serie S es absolutamente convergente. La dos
series por separado, la parte real y la imaginaria, también son convergentes, por lo
que S es convergente.
Ejemplo 7.5. Vamos a determinar si la serie
∞
X
S=
z n cos(in)
n=1
es convergente. Para hacer esto, primero observamos que cos(in) = cosh(n).
Tomemos ahora un valor arbitrario
P∞ para z, digamos zo y chequemos las condiciones para las cuales la serie n=1 zon cosh(n) converge. Para hacer esto, usamos
el criterio del cociente, esto es:
n+1
zo (cosh(n) cosh(1) + sinh(n) sinh(1)) z
cosh(n + 1) =
lim
lim o n
n→∞ n→∞
z cosh(n) cosh(n)
o
=
=
lim zo |cosh(1) + tanh(n) sinh(1)|
n→∞
zo |cosh(1) + sinh(1)| = zo e
por lo que la serie S converge si zo < 1/e
Este valor determina una región para la cual la serie converge y se le llama
radio de convergencia. Formalmente se puede definir como sigue:
2. SERIES DE TAYLOR EN EL PLANO COMPLEJO
105
Definición 7.6. El radio de convergencia de una serie del tipo (7.2) se
define como
cn lim
n→∞ cn+1 Ejercicio 7.7. Determinar el radio de convergencia, cuando exista, de las
siguientes
P∞series:
1) n=1 z n ein
2)
3)
4)
5)
P∞
n=1
P∞
n=1
P∞
n=1
P∞
n=1
π
z n ei n
n
z
1−i
z n in
z n sin( iπ
n)
2. Series de Taylor en el Plano Complejo
Las series de Taylor en variable compleja son de primordial importancia para
evaluar funciones. En esta sección vamos a definir las series de Taylor y Maclaurin y
despues pasaremos a definir las series de Laurent, que se utilizaran para varios teoremas y despues para desarrolar metodos que nos seran muy útiles en la evaluación
de integrales. Vamos a iniciar con el siguiente teorema.
Teorema 7.8 (Series de Taylor). Sea f (z) una función analı́tica en una región
dentro de una circunferencia γ0 , con centro en z0 y radio r0 . Para todo punto
dentro de γ0 se tiene
f (z) = f (z0 ) + f ′ (z0 )(z − z0 ) +
f n (z0 )
f ′′ (z0 )
(z − z0 )2 + · · · +
(z − z0 )n + · · ·
2!
n!
Demostración 7.9. Sea z ∈ γ0 y r = |z − z0 |, i.e., r < r0 . Sea γ1 la circunferencia |z ′ − z0 | = r1 , tal que r < r1 < r0 . f (z) es analı́tica dentro y sobre de γ1 .
De la integral de Cauchy, tenemos
Z
1
f (z ′ )dz ′
f (z) =
2πi γ1 z ′ − z
Pero
z′
1
1
1
1
·
= ′
= ′
0
−z
(z − z0 ) − (z − z0 )
z − z0 1 − zz−z
′ −z
0
Ahora usamos la fórmula
1 + α + · · · + αn−1 =
se obtiene
αn − 1
α−1
1
αn
= 1 + α + α2 + · · · + αn−1 +
1−α
1−α
0
Entonces, si hacemos α = zz−z
′ −z , obtenemos una fórmula equivalente
0
n−1
n !
1
z − z0
z − z0
1
1
z − z0
1+ ′
+ ···+
= ′
+
0
z′ − z
z − z0
z − z0
z ′ − z0
z ′ − z0
1 − zz−z
′ −z
0
106
7. SERIES
Asi que
f (z ′ )
f (z ′ )
f (z ′ )
f (z ′ )
f (z ′ )
n−1
+
(z−z
)+·
·
·+
(z−z
)
+
(z−z0 )n
=
0
0
z′ − z
z ′ − z0 (z ′ − z0 )2
(z ′ − z0 )n
(z ′ − z)(z ′ − z0 )n
Ahora dividimos esta identidad entre 2πi e integramos todos los términos usando
el teorema de Cauchy, para obtener
f (z) = f (z0 ) + f ′ (z0 )(z − z0 ) + · · · +
f (n−1) (z0 )
(z − z0 )n−1 + Rn
n!
donde el residuo Rn esta dado por
Rn =
(z − z0 )n
2πi
Z
γ1
(z ′
f (z ′ )dz ′
− z)(z ′ − z0 )n
y γ1 es la trayectoria cerrada definida anteriormente. Recordemos que |z − z0 | = r
y |z ′ − z0 | = r1 y como |z ′ − z0 | ≤ |z ′ − z| + |z − z0 |, entonces |z ′ − z| ≥ |z ′ − z0 | −
|z − z0 | = r1 − r. Esto es, si M es el máximo de |f (z ′ )| dentro de la curva γ1 , el
residuo es menor que
n
n
r 2πiM r1 r
= r1 M
|Rn | ≤ → 0
n→∞
2πi (r1 − r)r1n r1 − r r1
ya que r < r1 . Esto implica que tomando la serie hasta infinito obtenemos el valor
de la función en cualquier punto. Es decir,
∞
X
f (n)
(z − z0 )n
f (z) = f (z0 ) +
n!
n−1
La convergencia de la serie, entonces, se da si la función f (z) es analı́tica dentro
de γ0 Notación 7.10. Si la serie se toma para z0 = 0, la serie se llama serie de
Maclaurin.
3. SERIES DE LAURENT
107
Ejemplo 7.11. Los ejemplos más tı́picos de series de Taylor y Maclurin son
exp (z) = 1 +
sin (z) =
∞
X
∞
X
zn
para |z| < ∞
n!
n=1
(−1)n+1
n=1
cos (z) = 1 +
∞
X
(−1)n
n=1
sinh (z) =
∞
X
z 2n−1
, para |z| < ∞
(2n − 1)!
z 2n
, para |z| < ∞
(2n)!
z 2n−1
, para |z| < ∞
(2n − 1)!
n=1
cosh (z) = 1 +
∞
X
z 2n
, para |z| < ∞
(2n)!
n=1
∞
X
1
=
(−1)n z n , para |z| < 1
1 + z n=o
∞
1 X
=
(−1)n (z − 1)n , para |z − 1| < 1
z n=o
Veámos otro ejemplo.
Ejemplo 7.12. Vamos a desarrollar la función
1
f (z) =
3−2z
en series de Taylor en potencias de z − 3. Para hacer esto, vamos a transfomar la
función f como sigue:
1
1
1
1
=−
=−
2
3−2z
3 + 2(z − 3)
3 1 + 3 (z − 3)
Ahora usamos la fórmula para el desarrollo de Taylor de 1/(1 + z) con |z| < 1,
substituyendo z → 2/3(z − 3). Se obtiene:
2
23
1
22
1
1 − (z − 3) + 2 (z − 3)2 − 3 (z − 3)3 + · · ·
=−
3−2z
3
3
3
3
la cual es convergente para |z − 3| < 32 .
3. Series de Laurent
Las series de Laurent son una forma de descomposición que se puede llevar a
cabo en cualquier función analı́tica. Las series de Laurent contienen coeficientes
que seran utilizados para la evaluación de integrales de una manera muy sencilla.
Vamos a iniciar con el teorema de las series de Laurent.
Teorema 7.13 (Series de Laurent). Sean γ1 y γ2 dos trayectorias circulares
concentricas, con centro en z0 . Sea z ′ un punto en γ1 ◦ γ2 , tal que |z ′ − z0 | = r1
o |z ′ − z0 | = r2 , con r2 < r1 . f (z) es analı́tica sobre γ1 y γ2 y en la región entre
ellas, como se muestra en la figura 1. Entonces f (z) puede representarse como una
serie de potencias de orden positivo y negativo como
108
7. SERIES
Figure 1. Trayectoria de integración utilizada en el teorema de
series de Laurent.
f (z) =
∞
X
an (z − z0 )n +
Z
f (z ′ )dz ′
(z ′ − z0 )n+1
n=0
donde
an
bn
=
=
1
2πi
1
2πi
γ1
Z
γ2
f (z ′ )dz ′
(z ′ − z0 )−n+1
∞
X
bn
(z
−
z0 )n
n=1
n = 0, 1, · · ·
n = 1, 2, · · ·
Notación 7.14. A estas series se les llama series de Laurent.
Demostración 7.15. La integral de Cauchy de f (z) es
Z
Z
1
1
f (z ′ )dz ′
f (z ′ )dz ′
f (z) =
−
′
2πi γ1 z − z
2πi γ2 z ′ − z
ya que dentro de esta trayectoria, f (z) es analı́tica. Si como en el teorema anterior
usamos la descomposición de z′ 1−z pero ahora en cada integral, obtenemos
Z
z − z0
(z − z0 )n−1
(z − z0 )n
1
1
+
+
·
·
·
+
+
f (z ′ )dz ′
f (z) =
2πi γ1
z ′ − z0
(z ′ − z0 )2
(z ′ − z0 )n
(z ′ − z0 )n (z ′ − z)
Z
1
z ′ − z0
(z ′ − z0 )n−1
(z ′ − z0 )n
1
−
+
+
·
·
·
+
+
f (z ′ )dz ′
2πi γ2
z − z0
(z − z0 )2
(z − z0 )n
(z − z0 )n (z − z ′ )
donde, de la misma forma que en el teorema de Taylor, el residuo
Z
1
(z − z0 )n
f (z ′ )dz ′ ′
n (z ′ − z)
2πi
(z
−
z
)
0
γ1
3. SERIES DE LAURENT
109
tiende a cero para n → ∞. Sólo nos falta ver el segundo residuo dado por
Z
′
n
1
′
′ (z − z0 )
f
(z
)dz
2πi (z − z0 )n γ2
(z − z ′ )
pero por el mismo argumento que para el primer residuo, se puede ver que también
tiede a cero para cuando n tiende a infinito. Por lo que se sigue el teorema. Ejercicio 7.16. Demuestre que el residuo de la serie
Z
(z ′ − z0 )n
1
f (z ′ )dz ′
n
2πi (z − z0 ) γ2
(z − z ′ )
tiende a cero para n → ∞
Para familiarizarnos con las series de Laurent, en lo que sigue vamos a dar
algunos casos particulares de ellas ası́ como algunas aplicaciones y ejemplos. Las
series de Laurent son muy generales, de hecho contienen a las de Taylor. Vamos a
iniciar con una proposición diciendo justamente esto.
Proposición 7.17. Si la función f es analı́tica dentro y fuera de una curva
|z − z0 | = r0 , su serie de Laurent se reduce a
f (z) =
∞
X
an (z − z0 )n
n=0
y converge a f (z) para todos los puntos interiores de la circunferencia |z − z0 | = r0 .
Es claro que esta serie es la serie de Taylor de f (z) en potencias de (z − z0 ).
Demostración 7.18. Si f es analı́tica dentro del circulo |z − z0 | = r0 , se sigue
que bn = 0 en la serie de Laurent, para todo n. La serie se vuelve un desarrollo en
serie para f totalmente análogo como en el caso del teorema de Taylor. Veamos algunos ejemplos representativos.
Ejemplo 7.19. Tomemos la función
f (z) =
1
z(1 + z 2 )
Esta función es singular para z = 0 y z = ± i. Primero vamos a encontrar su serie
de Laurent dentro de una trayectoria cerrada con |z| < 1. Para este caso, podemos
expander el término 1/(1 + z 2 ) en series como sigue
1 1
z 1 + z2
1
=
1 − z2 + z4 − z6 + · · ·
z
∞
1 X
(−1)n z 2n−1 para (0 < |z| < 1)
= +
z n=1
f (z) =
Sin embargo, si ahora tomamos la región |z| > 1 esta expansión ya no es válida. Lo
que se acostumbra entonces es buscar que se cumplan las condiciones para que la
expansón pueda realizarse. Para esto hagamos lo siguiente, si |z| > 1, esto implica
110
7. SERIES
que |1/z| < 1, ası́ que hagamos la expansión usando este hecho. Por ejemplo,
podemos hacer
∞
∞
X
1
1 X
1
1
n −2n
=
(−1)
z
=
(−1)n 2n+3 para |z| > 1
f (z) = 3
−2
3
z 1+z
z n=1
z
n=0
ya que 1/z 2 < 1. Asi, la expresión en series de la función depende de la región
en donde queremos obtener la serie.
Ejemplo 7.20. Vamos a buscar la serie de Laurent de la función
1
f (z) =
(1 − z 2 )2
dentro de la esfera 0 < |z − 1| < 2. Para hacer esto utilizaremos la fórmula de las
series de Laurent en su forma intergral. Los coeficientes de la serie estan dados
por:
Z
1
dz ′
1
(1−z ′ 2 )2
an =
2πi γ1 (z ′ − 1)n+1
Z
dz ′
1
=
2πi γ1 (z ′ − 1)n+3 (1 + z ′ )2
1
dn+2
1
=
n+2
2
(n + 2)! dz
(1 + z) z=1
(−1)n (n + 3)! 1
=
(n + 2)! (1 + z)n+4 z=1
(−1)n (n + 3)
=
n = 0, 1, · · ·
2n+4
donde γ1 es una trayectoria alrededor de z = 1, y hemos usado la fórmula (6.2)
para las derivadas de la integral de Cauchy. De una manera semjante, vamos a
evaluar la integral para los coeficientes bn , tenemos:
Z
1
dz ′
1
(1−z ′2 )2
bn =
2πi γ1 (z ′ − 1)−n+1
Z
dz ′
1
n = 1, 2, · · ·
=
′
−n+3
2πi γ1 (z − 1)
(1 + z ′ )2
Para n = 1, 2, el resultado es el mismo que para an , pero con n = −2, −1. Para
n ≥ 3, la función interior de la integral es analı́tica en z = 1 y la integral es cero.
Entonces la serie será:
∞
X
(−1)n (n + 3)
1
=
(z − 1)n
2
2
n+4
(1 − z )
2
n=−2
Ejercicio 7.21. Obtenga con detalle las expresiones de las series de las funciones siguientes
1) z 2 , dentro cualquier trayectoria cerrada.
2) cos(z)/(z + 1)2 , dentro de cı́rculo de radio 1/2 y centro en cero.
3) cos(z)/(z + 1)2 , dentro de un cı́rculo de radio 2 y centro en cero.
4. POLOS Y RESIDUOS
111
4)
2z+1
z+z 2 ,
dentro de un cı́rculo de radio 2 y centro en cero.
5)
2z+1
z+z 2 ,
dentro de un cı́rculo de radio 1/2 y centro en cero.
6)
4z 3 +z 2 −1
z(z 2 −1) ,
dentro de un cı́rculo de radio 2 y centro en cero.
7)
4z 3 +z 2 −1
z(z 2 −1) ,
dentro de un cı́rculo de radio 1/2 y centro en cero.
8)
z 2 −2z−1
z+z 2 ,
donde γ es un cı́rculo de radio 1/2 y centro en 1.
En algunas ocaciones conviene realizar algunos cambios a las funciones analı́ticas
para poder encontrar su serie de Laurent. Por ejemplo, cuando una función analı́tica
se pude descomponer en el producto de dos o mas funciones analı́ticas mas simples.
En este caso es posible encotrar sus series utilizando la siguiente proposición.
Proposición 7.22. La serie del producto de dos funciones analı́ticas converge
hacia el producto de sus series para todo los puntos interiores a las dos circunferencias de convergencia.
Demostración 7.23. Sean
∞
∞
X
X
bn z n
an z n y g(z) =
f (z) =
n=0
n=0
analı́ticas en una región R. Entonces, como f (z) y g(z) son analı́ticas en esa región,
su serie de Maclaurin existe en la región. Se sigue que f (z)g(z) es analı́tica ahı́ y
P
n
f (z)g(z) = ∞
con
n=0 cn z
= a0 b 0 +
c0 = f (0)g(0) = a0 b0
(a0 b1 + a1 b0 )z+
c1 = f (0)g ′ (0) + f ′ (0)g(0) = a0 b1 + a1 b0
1
2
[f (0)g ′′ (0) + 2f ′ (a)f ′ (0) + f ′′ g(0)]
(a0 b2 + a1 b1 + a2 b2 )z +
c2 = 2!
..
.
= a b + a b + a b , etc.
0 2
1 1
2 0
4. Polos y Residuos
Ya estamos listos para introducir el teorema más importante para resolver
integrales complicadas. Como ya conocemos la serie de Laurent de una función, se
pueden entonces conocer los coeficientes de la serie y con esto es posible conocer
los polos y también los residuos, como veremos mas adelante. La idea es muy
simple, los coeficientes de la serie son de hecho integrales de funciones, pero la
serie se puede encontrar por otros métodos. Entonces, conocidos los coeficientes,
podemos igualarlos a las integrales correspondientes. Estos coeficientes son los
que se necesita para poder evaluar integrales. Vamos a iniciar esta sección con la
siguiente definición.
Definición 7.24. Sea f : C→ C analı́tica en todos los puntos de la región R,
excepto en z0 ∈ R. Entonces z0 se llama punto singular aislado de f en R.
Notación 7.25. Otra manera de enunciar esta definición es diciendo que z0
es un punto singular aislado, si en toda la región alrededor de Rz0 = {z ∈ R | 0 <
|z − z0 | ≤ r1 }, f es analı́tica.
112
7. SERIES
Otra concepto que usaremos mucho en lo que sigue es el concepto de residuo,
que es simplemente el coeficiente principal de la serie de Laurent de una función,
formalmente tenemos.
Definición 7.26. Sea f : C ⇀ C analı́tica en R con el punto singular aislado
z0 y sea
∞
X
b2
b1
+
+ ···
f (z) =
an (z − z0 )n +
z
−
z
(z
−
z0 )2
0
n=0
la serie de Laurent de f alrededor de z0 . Al coeficiente b1 de la serie se le llama
residuo.
Comentario 7.27. Observemos que b1 tiene la forma
Z
1
b1 =
f (z ′ )dz ′ ,
2πi γ
donde γ es cualquier curva cerrada que envuelva solo al punto singular aislado z0
de f , pero no a otro más.
Comentario 7.28. Para calcular los residuos en ocaciones es muy útil la
fórmula
(7.3)
b1 = lim (z − z0 ) f (z)
z→z0
Para comprender mejor estas definiciones, vamos a ver algunos ejemplos.
Ejemplo 7.29. Sea
cos (z)
z3
Alrededor de z0 = 0, la serie de Laurent de esta función es
1
11
1
1
cos(z)
= 3−
+ z − z 3 + · · · para |z| < 0
z3
z
2 z 4!
6!
El residuo será b1 = −1/2. Esto quiere decir que
Z
1
1
cos(z)
dz = −
3
2π i γ z
2
f (z) =
donde γ es cualquier trayectoria cerrada que rodee a z0 = 0.
Ejemplo 7.30. Vamos a encontrar los residuos de la función
5z − 2
f (z) =
,
z(z − 1)
alrededor de |z| = 2. Dentro de |z| = 2 están las dos singularidades aisladas z = 0
y z = 1. Primero encontremos la serie de Laurent alrededor de z = 0, pero con
|z| < 1. Para esto, simplemente separemos las series
5z − 2
5
2
=
−
z(z − 1)
z − 1 z(z − 1)
1
2
=
5−
z z−1
2
=
−5 +
(1 + z + z 2 + · · · )
z
2
− 3 − 3z − 3z 2 − · · ·
=
z
4. POLOS Y RESIDUOS
113
Ası́, el residuo para 0 < |z| < 1 es K1 = 2. Ahora vamos a buscar la serie alrededor
del otro polo z = 1. Para hacer esto, busquemos una descomposición de la función
de tal forma que podamos expandirla en series alrededor de z = 1. Podemos hacer
5z − 2
1
3
5z − 5 + 3 1
=
= 5+
z(z − 1)
z−1
z
z−1 z
3
[1 − (z − 1) + (z − 1)2 − · · · ]
=
5+
z−1
3
= 5 − 5(z − 1) + 5(z − 1)2 +
− 3 + 3(z − 1) − 3(z − 1)2 + · · ·
z−1
3
+ 2 − 2(z − 1) + 2(z − 1)2 − · · ·
=
z−1
para 0 < |z − 1| < 1, por lo que el residuo es K2 = 3.
Ejercicio 7.31. Obtenga los residuos de las fuciones del ejercicio 7.21.
El cálculo anterior es genérico en funciones analı́ticas y es otro de los resultados
mas importantes de la variable compleja. Con este resultado ya podemos demostrar
el teorema de los residuos.
Teorema 7.32 (del Residuo). Sea f : C ⇀ C analı́tica en una región R, excepto
en un número finito de puntos singulares aislados, sea γ una curva cerrada que rodea
un número finito de esos puntos. Sean K1 , · · · , Kn los residuos de f alrededor de
estos puntos. Entonces
Z
f (z)dz = 2πi(K1 + K2 + · · · + Kn )
γ
Demostración 7.33. Tomemos la curva γ y la descomponemos en secciones
que rodeen a los polos, como se muestra en la figura 2. Entonces se tiene
Z
Z
Z
Z
f (z)dz = 2πi(K1 + K2 + · · · + Kn )
f (z)dz + · · · +
f (z)dz +
f (z)dz =
γ
γ1
γ2
γn
Ejemplo 7.34. Vamos a evaluar la integral
Z
5z − 2
dz
z(z − 1)
alrededor de |z| = 2 . Como vimos en el ejemplo 7.30, la serie de Laurent alrededor
de z = 0 es
5z − 2
2
= − 3 − 3z − 3z 2 · · ·
z(z − 1)
z
y el residuo par 0 < |z| < 1 es K1 = 2. Para el otro residuo teniamos
5z − 2
3
=
+ 2 − 2(z − 1) + 2(z − 1)2
z(z − 1)
z−1
para 0 < |z − 1| < 1, por lo que el residuo es K2 = 3. Entonces la integral sera
Z
5z − 2
dz = 2πi(2 + 3) = 10πi
z(z
− 1)
γ
114
7. SERIES
Figure 2. Trayectoria de integración utilizada en el teorema del residuo.
Para comprobar que esto es cierto, evaluemos la integral directamente
Z
Z
Z
2
3
5z − 2
dz =
dz +
dz = 2πi(2 + 3)
γ z
γ z−1
γ z(z − 1)
O hagamos el desarrollo en series de otra forma alternativa que abarque los dos
polos, por ejemplo, para |z| > 1 podemos hacer
5z − 2 1
5z − 2
=
z(z − 1)
z2 1 −
1
z
= (5z − 2)
∞
X
n=0
1
z n+2
por lo que el residuo aqui es 5, ası́ que al final, con cualquiera de las formas de
calcular la integral, obtenemos el mismo resultado, como debe ser.
Ejercicio 7.35. Usando el teorema del residuo, calcular las integrales siguientes R
cos(z)
1) γ (z+1)
2 dz
2)
3)
4)
5)
6)
7)
R
2z+1
γ z+z 2 dz
R
γ
R
γ
4z 3 +z 2 −1
z(z 2 −1) dz
z 2 −2z−1
z+z 2 dz
R
ez
dz
γ (z 2 +1)5
R
cos(z)
γ (z−1)5 dz
R
γ
3z 3 −z 2 +5z+1
dz
(z 2 −1)2
4. POLOS Y RESIDUOS
115
En ocaciones hay funciones que tienen muchos polos en el mismo punto, o de
otra manera, algún polo es multiple, es decir, el polo esta elevado a alguna potencia.
Estos polos multiples reciben un nombre especial.
Definición 7.36. Sea f : C ⇀ C analı́tica alrededor de z y sea.
∞
X
ba
bm
b1
+
+
·
·
·
+
+
an (z − z0 )n
f (z) =
z − z0
(z − z0 )2
(z − z0 )m n=0
la serie de Laurent de f (z) alrededor de z0 , tal que bm 6= 0 pero bm+1 , bm+2 · · · = 0.
Entonces se dice que z0 es un polo de orden m. Si m = 1 , se dice que z0 es un
polo simple.
Podemos construir una fórmula análoga a la fórmula (7.3) para calcular los
residuos de polos de orden arbitrario. Esta fórmula esta dada en la siguiente
proposición.
Proposición 7.37. Sea f : C ⇀ C univaluada, tal que, para algún m entero y
positivo
F (z) = (z − z0 )m f (z)
es analı́tica en z0 y F (z0 ) 6= 0. Entonces f (z) tiene un polo de orden m en z0 . El
residuo será F (m−1) (z0 )/(m − 1)!
Demostración 7.38. Supongamos que f (z) tiene un polo de orden m, por lo
que bm 6= 0, pero todos los bm+k = 0, con k > 1. Vamos a construir la función
F (z) = (z − z0 )m f (z), se tiene
∞
X
F (z) = b1 (z − z0 )m−1 + ba (z − z0 )m−2 + · · · + bm +
an (z − z0 )n+m
n=0
Claramente F (z0 ) = bm 6= 0. Si tomamos la m − 1 derivada de F (z), se obtiene
que
∞
X
dm−1 F (z)
=
(m
−
1)!b
+
(n + m − 1)!an (z − z0 )n+1
1
dz m−1
n=0
Por lo que b1 = 1/(m − 1)!F (m−1) (z0 ) Comentario 7.39. Para calcular los polos de orden m en general es conveniente utilizar la fórmula
(7.4)
bm = lim
z→z0
((z − z0 )m f (z0 ))(m−1)
(m − 1)!
Usemos esta fórmula en un ejemplo sencillo.
Ejemplo 7.40. Tomemos
z 2 − 2z + 3
z−2
es claro que esta función se puede descomponer como
f (z) =
z 2 − 2z + 3
3
=
+z
z−2
z−2
Entonces esta expresion tiene un residuo K1 = 3 y un polo simple en z0 = 2. Para
llegar al mismo resultado, ahora calculems F (z), obtenemos
F (z = 2) = (z − 2)f (z)|
= z 2 − 2z + 3
=3
z=2
z=2
116
7. SERIES
como antes.
Ejemplo 7.41. Encontremos los residuos de la función
z2
(z 2 + 9)(z 2 + 4)2
Esta función tiene 2 polos simples en ±3i y dos dobles en ±2i. Para calcular los
residuos usemos la fórmula (7.3)
f (z) =
z2
3
=−
2
2
z→3i (z + 3i)(z + 4)
50i
b1 = lim
y
3
z2
=
2
2
z→−3i (z − 3i)(z + 4)
50i
Los polos dobles los calculamos usando la fórmula (7.4)
′
lim (z − 2i)2 f (z)
z→2i
′
13i
z2
=−
=
(z 2 + 9)(z + 2i)
200
análogamente
′
lim (z − 2i)2 f (z)
z→−2i
′
13i
z2
=
=
(z 2 + 9)(z − 2i)
200
b1 = lim
La fórmula para obtener el residuo también puede ser usada para otros fines.
Por ejemplo, vamos a usarla para evaluar el lı́mite de la función
cosh(z)
sinh(z)
g(z) = 2
−2
z2
z3
en cero.
Ejemplo 7.42. Tomemos la serie
sinh (z)
z4
Su función F (z) correspondiente debe ser
f (z) =
F (z) = z m
sinh (z)
z4
Si m ≥ 4, F (0) = 0. Pero si m = 3,
sinh(z) F (z = 0) =
=1
z z=0
Entonces
1 d2 F (z = 0)
1
=
2
2!
dz
2
sinh(z)
sinh(z) cosh(z)
+
2
−2
z
z2
z3
z=0
Que es justamente 1/2!F ′′ (0) = 1/2 limz→0 (sinh(z)/z − g(z)), que es el lı́mite que
buscamos. Para saber cual es su valor, vamos a evaluar la serie de Laurent de la
función f (z). Se obtiene
f (z) =
1
11
1
1
sinh (z)
= 3+
+ z + z3 + · · ·
z4
z
3! z 5!
7!
4. POLOS Y RESIDUOS
117
Por lo que sinh (z) /z 4 tiene un residuo igual a 1/6 y un polo triple en z = 0.
Usando este resultado podemos evaluar la función
1 ′′
sinh(z) 1
1 sinh(z)
cosh(z)
+
2
=
F (0) =
−2
2
3
2!
2
z
z
z
6
z=0
Como limz→0 sinh(z)/z−g(z) = 1/3 y limz→0 sinh(z)/z = 1, se tiene que limz→0 g(z) =
2/3
Como ya habrán notado, las singularidades de algúnas funciones tienen la caracteristica de poder ser eliminadas transfomando la función original en otra que
se convierte en analı́tica. A estas sigularidades se les llama removibles, porque de
hecho se pueden evitar, por ejemplo, multiplicando la función por algún factor,
como es el caso de la definición de la función F . Formalmente estas sigularidades
se definen como sigue.
Definición 7.43. Sea F1 : C ⇀ C analı́tica en una región R, excepto para
z = z0 ∈ C. Sea F (z) = F1 (z) para toda z 6= z0 y F (z0 ) = k, con F : C → C. Si
F (z) es analı́tica, se dice que z0 es una singularidad removible o evitable.
Para aclarar esta definición, veamos algunos ejemplos y ejercicios.
Ejemplo 7.44. Sea f : C ⇀ C analı́tica en R pero con un polo z = z0 de orden
m. Si definimos F = (z − z0 )m f (z), esta nueva función es analı́tica y tiene una
singularidad en z = z0 que es removible.
Ejemplo 7.45. Sea
f (z) =
1
1
= 2
z (ez − 1)
z 1+
z
2!
1
2
+ z3! + · · ·
Esta función es singular en z = 0 y tiene un polo doble. De hecho
1
1
1
= 2 (1 − z + · · · )
− 1)
z
2
z (ez
El residuo de f (z) es K1 = − 12 . Sin embargo, la función F = z 2 f (z) es analı́tica
en z = 0, por lo que z = 0 es un polo removible de F .
Ejercicio 7.46. Encontrar los polos y residuos de las siguientes funciones.
cos(z)
1) (z+1)
2
2)
2z+1
z+z 2
3)
4z 3 +z 2 −1
z(z 2 −1)
4)
z 2 −2z−1
z+z 2
5)
ez
(z 2 +1)5
6)
cos(z)
(z−1)5
7)
3z 3 −z 2 +5z+1
(z 2 −1)2
118
7. SERIES
5. Evaluación de Integrales
Una de las aplicaciones directas de los resultados anteriores es la posibilidad
de desarrollar algunos métodos para evaluar integrales que son muy complicadas.
Para explicar estos métodos, lo mas conveniente es dar ejemplos de como se utilizan
éstos. En esta sección veremos algunos ejemplos de evaluación de integrales usando
los resultados de variable compleja.
5.1. Integrales de la forma.
Z
∞
−∞
p(x)
dx
q(x)
Ejemplo 7.47. Vamos a encontrar la integral
Z
Z ∞
1 ∞ dx
dx
=
x2 + 1
2 −∞ x2 + 1
0
Tomemos la función f (z) = z21+1 , tienen dos polos simples en +i y −i. Sea γ una
curva cerrada, pasando por el eje real y haciendo un semicı́rculo, como en la figura
3. Se tiene
Figure 3. Curva cerrada, pasando por el eje real y haciendo un
semicı́rculo que contiene al polo simple +i.
Z
R
−R
dx
+
x2 + 1
Z
γR
dz
z2 + 1
=
=
=
Z
dz
2+1
z
γ
Z
Z
i dz
i dz
−
2(z
+
i)
2(z
− i)
γ
γ
1
2πi 0 − i = π
2
5. EVALUACIÓN DE INTEGRALES
119
2
donde
2 γR es2 el semicı́rculo superior. γR es tal que |z| = R y como z + 1 ≥
z − 1 = R − 1 se tiene
Z
Z
πR R→∞
|dz|
dz → 0
= 2
≤
2 + 1
2−1
z
R
R
−1
γR
γR
ası́ que
Z
∞
−∞
dx
=π
x2 + 1
Ejemplo 7.48. Evaluar
Z ∞
Z
1 ∞
x2 dx
x2 dx
=
(x2 + 9)(x2 + 4)2
2 −∞ (x2 + 9)(x2 + 4)2
0
Consideremos a la función
f (z) =
z2
(z 2 + 9)(z 2 + 4)2
Como vimos en el ejercicio 7.41, esta función tiene 2 polos simples en ±3i y dos
3i
3i
13i
dobles en ±2i, cuyos residuos estan dado por K3i = 50
, K−3i = − 50
, K2i = − 200
13i
y K−2i = 200 . Entonces la integral sobre el contorno se toma como en el ejemplo
anterior, será
Z
Z R
dz
dz
+
2 + 9)(z 2 + 4)2
2 + 9)(z 2 + 4)2
(z
(z
γR
−R
Z
dz
=
2
2
2
γ (z + 9)(z + 4)
3 i 13 i
π
−
=
= 2πi(K1 + K3 ) = 2πi
50
200
100
Usando los mismos argumentos del ejemplo anterior, se llega a
Z ∞
π
dx
=
2
2
2
(x + 9)(x + 4)
200
0
En general, si f (z) es de la forma
f (z) =
p(z)
q(z)
donde p(z) y q(z) son ambas analı́ticas, pero f (z) tiene un polo simple en z = z0 ,
con f (z0 ) 6= 0, esto implica que q(z0 ) = 0, pero q ′ (z0 ) 6= 0. Podemos escribir.
f (z) =
p(z0 ) + p′ (z0 )(z − z0 ) + p′′ (z0 )(z ′ − z0 )2 /2! + · · ·
q(z0 ) + q ′ (z0 )(z − z0 ) + q ′′ (z0 )(z − z0 )2 /2! + · · ·
de donde se sigue que
F (z) = (z − z0 )f (z) =
p(z0 ) + p′ (z0 )(z − z0 ) + · · ·
q ′ (z0 ) + q ′′ (z0 )(z − z0 )/2! + · · ·
es analı́tica. Del polo simple podemos calcular el residuo. Si observamos que
b1 = lim F (z) = lim (z − z0 )f (z) =
z→z0
z→z0
p(z0 )
q ′ (z0 )
120
7. SERIES
Análogamente, si el polo es doble q(z0 ) = q ′ (z0 ) = 0 pero q ′′ (z0 ) 6= 0 y
b2 = lim
z→z0
2
((z − z0 )2 f (z))′
(3p′ (z0 )q ′′ (z0 ) − p(z0 )q ′′′ (z0 ))
= ′′
2!
3q (z0 )2
Ejercicio
7.49. Evalúen las siguientes integrales
R∞
dx
3
1) −∞ (1+x
2 )3 = 8 π
2)
3)
4)
5)
R∞
x2 dx
−∞ (x2 +4x+13)2
R∞
dx
−∞ 1+x6
= 32 π
x2 dx
−∞ 1+x6
= 31 π
R∞
R∞
−∞
sin(x) dx
1+x6
=
13
54 π
=0
5.2. Integrales de la forma.
Z ∞
f (x) exp (ixh) dx
−∞
Estas integrales son de suma importancia porque son las transformadas de
Fourier de la función f (x). Estas se pueden resolver de la siguiente forma
Lema 7.50. Sea f (x) una función tal que lim f (x) = 0 y h > 0. Entonces la
x→±∞
integral
Z
∞
f (x) exp (ihx) dx = 2πi [ residuos del plano medio superior]
−∞
Demostración 7.51. Consideremos la integral a lo largo de la curva γ dada
en la figura 3. Claramente
Z R
Z
Z
f (z) exp (ihz) dz
f (z) exp (ihz) dz =
f (z) exp (ihz) dz +
γ
−R
γR
Vamos a demostrar que la segunda integral del lado derecho de la identidad se
anula cuando R → ∞. Ahora bien, como lim f (x) = 0, esto implica que para
x→±∞
R >> 1 existe siempre un número real M > 0 tal que |f (z)| < M . Si hacemos
z = Reiθ = R [cos (θ) + i sin (θ)], se tiene que para R >> 1
Z
Z π
iθ
In = f (z) exp (ihz) dz ≤ M exp (hR [i cos (θ) − sin (θ)]) iRe dθ
γR
0
Z π
Z π
iθ
≤ MR exp (hR i [cos (θ) + θ]) dθ +
exp (−hR sin (θ)) e dθ
0
0
La primera es la integral de una función periódica y por tanto es finita y positiva,
digamos igual a I0 , entonces podemos escribir
Z π
In = M R I0 +
exp (−hR sin (θ)) eiθ dθ
0
Z π/2
≤ 2 MR
exp (−hR sin (θ)) dθ
0
5. EVALUACIÓN DE INTEGRALES
121
donde hemos usado la simetria de sin(θ) entre 0 ≤ θ ≤ π/2. Pero en este intervalo,
la función sin(θ) ≥ 2 θ/π, entonces podemos escribir:
Z π/2
θ
dθ
In ≤ 2 M R
exp −2 hR
π
0
=
(7.5)
−M π
e−hR − 1
→ 0
R→∞
h
dado que h > 0 y que M → 0 cuando R → ∞. Ejemplo 7.52. Vamos a evaluar la integral
Z ∞
exp (ixT )
dx
2
2
−∞ k − x
Consideremos la integral
Z
γ
exp (izT )
dz
k2 − z 2
Para T > 0, γ es la trayectoria de la figura 4. Se tiene que
Figure 4. Curva cerrada, pasando por el eje real y haciendo un
semicı́rculo que contienen los dos polos simples en +k y −k.
Z
γ
exp (izT )
dz
k2 − z 2
Z
Z
1
1
exp (izT )
exp (izT )
dz −
dz
2k γ z + k
2k γ z − k
1
=
[exp (−ikT ) − exp (ikT )]
2k
i
= − sin (kT )
k
=
122
7. SERIES
Para T < 0, tomemos la misma trayectoria pero ahora con el simicirculo hacia
abajo, para que la integral (7.5) se integre de 0 a −π/2. Solo que en este caso los
polos quedan fuera de la trayectoria y por tanto la integral se anula, por lo que
i
Z ∞
exp (ixT )
− k sin (kT ) para T > 0
dx =
2 − x2
0
para T < 0
k
−∞
Ejemplo 7.53. Vamos a evaluar la integral
Z ∞
exp (i (xR + yT ))
dx dy
y − ix0 x2
−∞
Podemos llevar a cabo la integración parte por parte. Primero integremos con respecto a y. La integral que vamos a resolver se ve entonces como:
Z ∞
Z ∞
exp (iyT )
dy
exp (ixR) dx
−∞
−∞ y − z0
donde z0 = ix0 x2 . Observemos que esta integral se puede llevar a cabo usando una
trayectoria como la del ejercicio anterior, donde solo se tiene el polo y = z0 . Ahora
bien, si T > 0, la trayectoria cubre el polo z0 , pero si T < 0 no lo cubre. Por lo
que se obtiene que
Z ∞
Z ∞
Z ∞
exp (iyT )
dy =
exp ixR − x0 x2 T dx
exp (ixR) dx
−∞
−∞
−∞ y − z0
para T > 0, y la integral es cero para T < 0. Queda resolver la integral anterior,
llamada la integral de Gauss. Para evaluarla, primero completemos el cuadrado
en la exponencial, se obtiene
Z ∞
2
2
e−R /4b
e−bz dz
−∞
donde hemos llamado b = x0 T y a z = x − R/2b. Esta integral puede evaluarse
usando elqsiguiente método. Si llamamos la integral Ip , lo que vamos a hacer es
integrar Ip2 , de la siguiente forma:
Ip = e
−R2 /4b
Z
∞
e
−bz 2
dz
=
e
−R2 /4b
−∞
=
=
=
2
e−R
e
/4b
−R2 /4b
2
e−R
/4b
Z
Z
Z
r
∞
−∞
∞
−∞
2π
0
e
−bx2
Z
Z
π
exp
b
12 Z
dx
e−b(x
2
+y 2 )
−∞
0
e
−by 2
−∞
∞
∞
∞
e
−br 2
dx dy
21
rdrdθ
r
−R2
π
4x0 T
x0 T
21
dy
12
si T > 0, y cero si T < 0. Observese que aqui no utilizamos el teorema del residuo.
Para evaluar la última integral, claramente se utilizaron coordenadas polares.
Encontrar los polos y residuos de las siguientes funciones.
Ejercicio
7.54. Evalúen las siguientes integrales
R ∞ cos(x)
iT x
dx
1) −∞ (x+1)
2e
5. EVALUACIÓN DE INTEGRALES
2)
3)
4)
R∞
123
ex
eiT x dx
−∞ (x2 +1)5
R∞
−∞
R∞
3x3 −x2 +5x+1 iT x
e dx
(x2 −1)2
cos(x) iT x
dx
−∞ (x−1)5 e
5.3. Integrales de la forma.
Z 2π
F (sin (θ) , cos (θ))dθ
0
Para este tipo de integrales, la transformación
z = eiθ , dz = izdθ es siempre
1
1
−1
y cos (θ) = 2i
z − z −1 . Este método es
muy útil, ya que sin (θ) = 2i z − z
genérico y nosotros lo vamos a mostrar con un ejemplo.
Ejemplo 7.55. Vamos a evaluar la integral
Z 2π
dθ
(7.6)
I=
5
+
sin (θ)
0
4
efectuando la transfomación para este timpo de integrales, se obtiene:
Z
dz
I =
1
5
−1 )
γ iz 4 + 2i (z − z
Z
4dz
=
2 + 5iz − 2
2z
γ
Z
2dz
=
(z
+
2i)(z
+ 21 i)
γ
8
=
π
3
donde la integración se hizo a lo largo de la curva γ dada por |z| = 1, como en la
figura 5.
Ejercicio
7.56. Evalúen las integrales
R 2π
1.- 0 (cos(θ) sin(θ))2 dθ
2.-
3.4.5.-
R 2π
0
R 2π
0
R 2π
0
R 2π
0
cos(θ) sin2 (θ) dθ
dθ
1+2 sin2 (θ)
dθ
3 cos2 (θ)+2 sin2 (θ)
i cos(θ)dθ
(cos2 (θ)+2 i sin(θ) cos(θ)−sin2 (θ)+1)3
−
R 2π
0
sin(θ)dθ
(cos2 (θ)+2 i sin(θ) cos(θ)−sin2 (θ)+1)3
124
7. SERIES
Figure 5. Curva cerrada, pasando por el eje real y haciendo un
cı́rculo que contienen al polo simple z = −i/2.
CHAPTER 8
GEOMETRIA DEL PLANO COMPLEJO
En este capı́tulo veremos brevemente una parte de la geometrı́a del plano complejo. Nos concentraremos únicamente a dos aspectos, las transformaciones conformes y las superficies de Riemann. Vamos a iniciar con las transformaciones
conformes.
1. Transformaciones Conformes
Las transformaciones conformes se llevan a cabo para poder simplificar un
problema. Son muy útiles en la solución de ecuaciones diferenciales, para resolver
problemas de fı́sica, quı́mica, ingenierı́a y matemáticas en general, entre otros. Su
definición es la siguiente:
Definición 8.1. Una transformación conforme en una región R ⊂ C es
una función Z : C → C tal que Z es analı́tica y
dZ
6= 0
dz
en R.
Lo interesante de la función Z es que transforma una región del dominio de
ella, en otro región diferente, es decir, a cada punto z = x + iy del plano complejo
(x, y), le asocia otro punto Z = u(x, y) + iv(x, y) del plano complejo (u, v). Para
ver esto, vamos algunos ejemplos.
Ejemplo 8.2. Traslaciones. El ejmplo más simple es sin duda una traslación
conforme. Sea Z(z) = Z(x, y) = z + z0 = x + x0 + i(y + y0 ). Entonces, un punto
x + iy en el plano complejo, se ve como otro punto x + x0 + i(y + y0 ) en el plano
conforme, como en la figura 1
Figure 1. La transformación conforme Z(z) = z + z0 , la cual
conrresponde a una traslación.
125
126
8. GEOMETRIA DEL PLANO COMPLEJO
A cada punto z = x + iy se le asocia un punto u = x + x0 y v = y + y0 . Por
ejemplo, una linea en el plano complejo y = mx + b, se transforma en v − y0 =
m(u − x0 ) + b, la cual es una linea paralela a la anterior desplazada, como en la
figura 1
Ejemplo 8.3. Rotaciones. Otro ejemplo interesante es la rotación conforme. Ésta está definida como Z(z) = z z0 . Para visualizar la transformación,
es conveniente escribir ésta en su forma polar. Si z = reiθ , entonces Z(z) =
r r0 ei(θ+θ0 ) . Es decir, el punto z = reiθ fue trasladado una distancia r → r r0 y
rotado de θ → θ + θ0 . Vean la figura 2. Por ejemplo, la rotación z0 = eiθ0 de un
Figure 2. La transformación conforme Z(z) = z z0 , la cual
conrresponde a una rotación del punto z.
cı́rculo x2 + y 2 = z z̄ = r2 en el plano complejo, deja al cı́rculo invariante, ya que
si lo vemos en la representación polar, este queda como Z Z̄ = zz0 z̄ z̄0 = r2 .
Ejemplo 8.4. Inversiones. Tal vez el ejemplo más interesante sea el de la inversión conforme. La inversión esta definida como Z(z) = 1/z y para visulizarla
primero conviene escribir el nḿero z en su forma polar z = reiθ . Entonces, la
inversión se ve como Z(z) = r1 e−iθ , es decir, la inversión lleva al número z al lado
opuesto del plano complejo. Otra forma conveniente de visualizar una inversión es
utilizando su forma Z(x, y) = 1/(x + iy) = (x − iy)/(x2 + y 2 ). De aquı́ se ve que
una inversión nos lleva al complejo conjugado del número, dividio entre el módulo
al cuadrado. Vamos a escribir la forma explicita de la inversión como
y
x
, v=− 2
(8.1)
u= 2
x + y2
x + y2
De donde podemos escribir
u
v
x= 2
, y=− 2
u + v2
u + v2
Por ejemplo, una lı́nea recta que pasa por el orı́gen y = mx, tras una inversión
v
u
se verı́a como esa lı́nea recta pero con la pendiente invertida − u2 +v
2 = m u2 +v 2 , es
decir v = −mu. Una lı́nea paralela al eje x, y = c, se verı́a como:
v
+ u2 + v 2 = 0
c
que se puede escribir de otra forma como
1
1
u2 + (v + )2 =
2c
(2c)2
1. TRANSFORMACIONES CONFORMES
127
el cual es un cı́rculo centrado en (0, −1/(2c)), de radio 1/(2c). Es decir, una recta
paralela al eje x, bajo una inversión es un cı́rculo. En la figura 3 se puede ver el
cı́rculo u2 + (v + 1/2)2 = 1/4, el cual es la inversión de la recta y = 1. En general,
una recta y = mx + b se verı́a tras una inversión como:
v = −m u − b(u2 + v 2 )
Esta última expresión se puede reescribir como
2 m 2
1 + m2
1
+ u+
=
(8.2)
v+
2b
2b
4b2
para b√6= 0, el cual es claramente un cı́rculo con centro en −1/(2b)(m, 1) y con
radio 1 + m2 /(2b), en el plano (u, v). En la figura 3 se puede ver el cı́rculo
(u + 1/2)2 + (v + 1/2)2 = 1/2, el cual es la inversión de la recta y = x + 1.
Concluimos que la inversión de una recta que pasa por el origen es siempre otra
recta con pendiente invertida o un cı́rculo, si la recta no pasa por el origen.
Figure 3. La transformación conforme Z(z) = 1/z, de la recta
y = x + 1, en el plano (u, v).
De la misma manera podemos visualizar un cı́rculo después de una inversión.
Sea el cı́rculo z z̄ = x2 +y 2 = r2 , con r constante. Usando las expresiones anteriores,
el cı́rculo se ve como:
u2
v2
x2 + y 2 = 2
+ 2
= r2
2
2
(u + v )
(u + v 2 )2
de donde se sigue que:
1
r2
Es decir, se obtiene el mismo cı́rculo, pero con un radio invertido.
u2 + v 2 =
Vamos a observar una caracteristica muy interesante de las transformaciones
conformes. Veamos primero el ejemplo 8.2 de las traslaciones conformes. Al
trasladar una recta del plano (x, y) al plano (u, v), la pendiente de las rectas no
se altera, ası́ que si dos curvas en el plano (x, y) se cruzan en un punto, el angulo
que forman entre ellas se conservará en el plano (u, v). Esta afirmación no es tan
128
8. GEOMETRIA DEL PLANO COMPLEJO
evidente en el ejemplo 8.4 de las inversiones conformes. Sin embargo, sean dos
rectas que se cruzan en el plano (x, y), por ejemplo y = m1 x + b1 y y = m2 x + b2
y supongamos que se cruzan en el punto (x0 , y0 ). En este punto se tiene que:
(8.3)
x0
=
y0
=
b2 − b1
m1 − m2
m1 b 2 − m2 b 1
m1 − m2
Tomemos la inversión conforme de las rectas como en el ejemplo 8.4. Con estos
valores, también podemos escribir el punto de cruce (u0 , v0 ) de los cı́rculos correspondientes en el plano (u, v), usando la fórmula (8.1) y los valores (8.3). En el
plano (u, v), la pendiente M de la recta tangente en cualquier punto (u, v) de los
cı́culos correspondietes a las rectas en (x, y) se obtiene derivando (8.2), es decir:
(8.4)
M=
u+
dv
=−
du
v+
m
2b
1
2b
En el punto (u0 , v0 ), el ciı́rculo 1 tendrá una recta tangente con pendiente M1 y el
cı́rculo 2, una recta tangente con pendiente M2 , dadas por (8.4), con sus valores
correspondientes de m1 , b1 , m2 y b2 . Ahora calculemos los angulos que forman
dichas rectas. Lo mas simple es calcular la tangente de su diferencia, es decir:
(8.5)
tan(θ2 − θ1 ) =
M2 − M1
1 + M1 M2
donde θ1 es el angulo que forma la recta tangente al cı́rculo 1 en el punto (u0 , v0 )
con el eje u y θ2 es el correspondiente para el cı́rculo 2. Ahora substituimos los
valores de M1 y M2 en terminos de las contantes de las rectas y (despues de mucha
álgebra) se obtiene:
tan(θ2 − θ1 ) =
m1 − m2
= tan(α2 − α1 )
1 + m1 m2
donde ahora α1 es el angulo que forma la recta 1 con el eje x y α2 , el que forma
la recta 2. Es decir, de nuevo la diferencia entre los ángulos se conserva. En la
figura 3 se puede ver como las rectas y = x + 1 y y = 1 se cruzan en (0, 1). Los
cı́rculos correspondientes se cruzan en el plano (u, v) en el punto (0, −1). En este
punto las rectas tangentes a cada cı́rculo forman un ángulo igual que las rectas
correspondientes en el plano (x, y). Lo que vamos a probar ahora es que esta
propiedad es general en las transformaciones conformes.
Teorema 8.5. Sean α1 y α2 los angulos de las rectas tangentes a dos curvas
C1 y C2 respectivamente en un punto (x0 , y0 ) donde estas curvas se cruzan. Sean
Z : C → C una transformación conforme y C1′ y C2′ las curvas transformadas bajo Z
de C1 y C2 , respectivamente. Sea θ1 el angulo con respecto a u de la curva tangente
de C1′ en el punto Z(x0 , y0 ) = (u0 , v0 ) y θ2 el angulos de la curva tangente de C2′ .
Entonces se cumple que
θ1 − θ2 = α1 − α2
Demostración 8.6. Por definición, la transformación conforme Z cumple con
que
∆Z dZ =
lim
= reiφ z 6= 0
0
∆z→0 ∆z z
dz z0
0
1. TRANSFORMACIONES CONFORMES
129
Por supuesto el ángulo φ depende de z, pero para un punto fijo z0 éste ángulo es
una constante. En su forma polar, para que dos números complejos sean iguales, su
modulos y sus argumentos deben coincidir. Entonces, los argumentos de la ecuación
anterior son:
∆Z
∆Z
= lim arg
φ = arg lim
∆z→0
∆z→0 ∆z
∆z
= lim arg ∆Z − lim arg ∆z
∆z→0
=
∆z→0
θ−α
como se muestra en la figura 4. Supongamos que tenemos las dos curvas, C1 y C2
en el plano (x, y) y se cruzan en el punto z0 = x0 + iy0 . En el plano (u, v) estas
curvas son C1′ y C2′ . Para la curva 1 se tiene que φ = θ1 − α1 y para la curva 2
φ = θ2 − α2 , de tal forma que:
θ1 − θ2 = α1 − α2
Figure 4. Los argumentos de la transformación conforme Z, en
el lı́mite cuando ∆z va a cero.
Un ejemplo muy interesante de una transformación conforme no lineal es el
siguiente:
Ejemplo 8.7. Sea Z = z 2 una transformación conforme. Esta transformación
esta dada por:
u = x2 − y 2 , v = 2xy
A esta transformación se le conoce como coordenadas hiporbólicas, ya que las
lineas u = x2 − y 2 =constante y v = 2xy =constante, forman hipérbolas en el
plano (x, y). Lo interesante del teorema anterior es que como la transformación
lleva hipérbolas del plano (x, y) a lineas perpendiculares al plano (u, v), como se
ve en la figura 5, las hipérbolas en el plano (x, y) forman un sistema otrogonal de
coordenadas, por eso el nombre de coordenadas hiperbólicas.
Existen muchos mas ejemplos de este tipo de transformaciones, pero es mejor
que el lector las estudie en forma de ejercicios.
130
8. GEOMETRIA DEL PLANO COMPLEJO
Figure 5. La transformación conforme Z = z 2 , la cual transforma coordenadas hiperbólicas en coordenadas castesianas.
Ejercicio 8.8. Consideremos las sucesión de transformaciones conformes
1.- z1 = z + dc
2.- z2 = c2 z1
3.- z3 = z12
4.- z4 = (bc − ad)z3
5.- z5 = ac + z4
Tomen sucesivemente estas transformaciones y encuentren el resultado final y
la condición para que esta última sea una transformación conforme. Sean el cı́rculo
x2 + (y − 1)2 = 1 y la recta y = x + 1. Encuentren las curvas resultantes despues
de la quinta transformacón sucesiva de estas dos curvas. A esta transformación se
le llama la transformación homográfica.
Ejercicio 8.9. Examinen la transformación conforme
Z = 2 arctan(ia z)
Den sus transformaciones del plano (x, y) al plano (u, v) y viceversa explı́citamente.
Encuentren la tranformación del cı́rculo x2 + (y − 1)2 = 1 y de la recta y = x + 1
bajo esta transformación.
2. Superficies de Riemann
En la sección anterior vimos como la función f : C → C, tal que f (z) = z 2
transforma puntos de un plano complejo a otro. En su forma polar, esta función
también se puede escribir como f (z = reiθ ) = r2 e2iθ . En particular, podemos
tomar un cı́rculo en el dominio de la función y ver como este se mapea en el
codominio. Claramente, una vuelta en el dominio implicará una doble vuelta en el
cı́rculo del codominio, alrededor de un cı́rculo que tiene el cuadrado del radio del
correspondiente en el dominio. En la sección 4 vimos que el inverso de esta función
2. SUPERFICIES DE RIEMANN
131
en el plano real,√no es una función porque no es univaluada, es decir f : ℜ → ℜ,
tal que f (x) = x tiene dos valores para cada x en el dominio. En esta sección
veremos de una manera intuitiva como en variable compleja es posible hacer que
este tipo de mapeos se puedan ver como funciones, definiendo un dominio adecuado
llamado superficie de Riemann. En realidad, una superficie de Riemann es una
variedad compleja, pero nosotros veremos variedades hasta la sección 1. Por ahora
lo que haremos es ver la idea funcional de lo que es una superficie de Riemann.
Para hacer esto veremos un par de ejmplos.
Ejemplo 8.10. Vamos a iniciar con la función (relación) f : C → C, tal que
√ 1
√
f (z) = z. En su forma polar, esta función f (reiθ ) = re 2 θ recorre la mitad
de un cı́rculo en el plano (u, v), como se ve en la figura 6. Vamos a identificar
Figure 6. La transformación conforme Z =
mitad del plano (u, v).
√
z, recorre solo la
el eje positivo de los reales ℜ+ con otro eje positivo de la parte real de otro plano
complejo, como se ve en la figura 7, de tal forma que un cı́rculo iniciando en el
punto 0, continúa hasta el punto 1 de ese plano, después sigue en el punto 1 del otro
plano y sigue hasta el punto 2 de ese plano y de ahi pasa al punto 2 del primer plano
complejo, hasta completar una vuelta en los dos plano. A estos dos planos juntos
se le llama √
una superficie de Riemannm R, de tal forma que la función R → C,
con f (z) = z ahora es una función univaluada y biyectiva.
Ejemplo 8.11. Otro ejemplo similar es la función f : C → C donde f (z) = z 1/3 .
En este caso dos planos identificados como en el caso anterior no serán suficiente.
Para esta función se necesitan tres planos, como los de la figura 8. En esta superficie
de Riemann iniciamos en el punto 0, continuamos hasta e punto 1 de este plano
y de ahı́ pasamos al punto 1 del segundo plano, seguimos en este plano hasta el
punto dos y continuamos en el punto dos del tercer plano hasta al punto tres, que
nos conduce de nuevo al punto 3 del primer plano complejo. Si el dominio de
la función f es esta superficie de Riemann R, es decir, f : R → C, la función
f (z) = z 1/3 es biyectiva.
Ejemplo 8.12. Finalmente vamos a anlizar la función ln(z). En este caso
tenemos que ln(reiθ ) = ln(r) + iθ. Esta función (relación) tiene un número infinito
de puntos de multivaluación, ya que todos los valores de θ = θ + 2kπ, con k =
0, ±1, ±2, · · · , corresponden al mismo punto z = reiθ = reiθ+i2kπ . Para este caso
132
8. GEOMETRIA DEL PLANO COMPLEJO
Figure 7. Dos planos complejos (x, y), en donde identificamos
sus partes reales positivas. Esta unión de espacios forma una superficie de Riemann.
Figure 8. Lo mismo que en la figura 7, pero ahora con tres planos.
vamos a necesitar una superficie de Riemann con un número infinito de planos
identificados como en los casos anteriores.
Part 4
ANALISIS
CHAPTER 9
ESPACIOS MÉTRICOS Y UNITARIOS
1. Estructuras sobre ℜ y ℜn
En la parte de Álgebra estudiamos las estructuras algebráicas sobre ℜ y ℜn .
En particular, sabemos que ℜ es un campo ordenado donde la estructura algebraica
de campo nos da las reglas de cálculo de la adición, substracción, multiplicación
y división, las cuales se relacionan con el orden natural ≤ de los números reales.
Este orden es tanto un orden parcial como también lineal, y proporciona conceptos
como los de máximo, mı́nimo, cotas, supremo e infimo de subconjuntos, conceptos
de suma importancia en el análisis. También vimos que ℜn es un espacio vectorial
sobre ℜ , cuyas operaciones (adición entre vectores y multiplicación de escalares
con vectores) se basan enteramente en operaciones del campo ℜ. Conocemos conceptos como subespacio vectorial, independencia lineal, cerradura lineal, base, dimensión, y homomorfismos (mapeos lineales) entre espacios vectoriales, los cuales
debemos tener presentes para poder estudiar los temas del análisis presentados en
este capı́tulo. Sin embargo, ℜ y ℜn tienen más estructuras, las cuales, normalmente
en un contexto práctico o de aplicación, supondremos nosotros aquı́ que el lector ha
conocido ya antes. Las siguientes secciones dentro de esta introducción recuerdan
estos conceptos dentro de nuestro conocimiento y lo ordena en un contexto nuevo.
1.1. ℜn como espacio vectorial normado. Recordamos que ℜ es un campo
ordenado y supondremos en este texto que la definición formal del valor absoluto
es un concepto muy sencillo y conocido.
Definición 9.1. Para x ∈ ℜ, se define el valor absoluto de x por |x| =
max{x, −x}.
Vemos que |x| es un numero real no negativo, pues obviamente
x, si x ≥ 0,
|x| = max{x, −x} =
,
−x, si x < 0
ası́ que, |·| es un mapeo de ℜ en ℜ+ . Observamos que x ∈ ℜ es un punto sobre
la lı́nea real, o, equivalentemente, un vector sobre la lı́nea real, apuntando desde
el origen 0 hacia el punto x. Es evidente que |x| es la longitud de este vector o
la distancia (igual a la longitud del segmento de lı́nea) entre 0 y x. Aplicando la
definición del valor absoluto y propiedades del máximo, es fácil deducir las siguientes
propiedades:
Lema 9.2. Para x, y ∈ ℜ:
1) |x| = 0 sı́ y sólo sı́ x = 0.
2) |−x| = |x|
3) |xy| = |x| |y|
4) |x + y| ≤ |x| + |y|
135
136
9. ESPACIOS MÉTRICOS Y UNITARIOS
5) − |x| ≤ x ≤ |x|
Comentario 9.3. Aplicando inducción matemática, la propiedad 4) implica
que
|x1 + x2 + · · · + xn | ≤ |x1 | + |x2 | + · · · + |xn | ,
para x1 , x2 , · · · , xn ∈ ℜ.
En el plano euclideano ℜ2 , comunmente hemos medido la longitud de un vector
x = (x1 , x2 ) ∈ ℜ2 como
q
p
2
2
kxk2 = |x1 | + |x2 | = (x1 )2 + (x2 )2 ,
lo cual, según el teorema de Pitágoras, es la longitud del segmento de lı́nea entre
el orı́gen 0 = (0, 0) del plano Euclidiana y el punto x, es decir, es la longitud del
vector x = (x1 , x2 ), ver figura 1
Figure 1. En el plano, la norma canónica representa la longitud
del vector, es decir, la distancia entre el origen de coordenadas y
el punto.
Más generalmente, conocemos la longitud de un vector x = (x1 , x2 , · · · , xn ) ∈
ℜn dada por
v
u n
uX
kxk2 = t (xi )2 .
i=1
Es obvio que ||x||2 es un número real no negativo para cualquier x ∈ ℜn ,ası́
que, k · k2 es un mapeo de ℜn en ℜ+ . Las siguientes propiedades son parecidas a
propiedades que ya habı́amos observado para el valor absoluto:
Lema 9.4. Se tiene que
1) kxk2 = 0 sı́ y sólo sı́ x = 0.
2) kαxk2 = |α| kxk2 , para todo x ∈ ℜn y α ∈ ℜ.
3) kx + yk2 ≤ kxk2 + kyk2 , para todo x, y ∈ ℜn .
1. ESTRUCTURAS SOBRE ℜ Y ℜn
137
Ejercicio 9.5. Demostrar las propiedades del lema 9.4.
kxk2 es llamado la norma Euclidiana del vector x ∈ ℜn ; es evidente que
para el caso n = 1, kxk2 es exactamente el valor absoluto de x. Observamos que en
las propiedades de la norma Euclidiana (lema 9.4), se usa la estructura del espacio
vectorial ℜn :
* En 1), x = 0 significa que x es el elemento neutro del grupo (ℜn , +).
* En 2), se multiplica un escalar α con un vector x.
* En 3), su suman dos vectores x, y.
1.2. ℜn como espacio métrico. Observemos primero la lı́nea real y definámos
la siguiente función
d2 (x, y) =
x, y ∈ ℜ . Evidentemente
d2 (x, y) =
p
(x − y)2 ,
x − y, si x ≥ y
= |x − y|
−(x − y), si y ≥ x
es la longitud del segmento de lı́nea entre x y y, sobre la recta de los números
reales, ası́ que, d2 (x, y) mide la distancia entre x y y. Es fácil observar que d2 (·, ·)
es un mapeo de ℜ × ℜ en ℜ+ , es decir, d2 (x, y) ≥ 0 para todo x, y, z ∈ ℜ, con las
siguientes propiedades:
1) d2 (x, y) = 0 sı́ y sólo sı́ |x − y| = 0 ⇐⇒ x = y.
2) d2 (x, y) = d2 (y, x),
3) d2 (x, y) + d2 (y, z) ≥ d2 (x, z),
Si definimos la distancia d2 (x, y) entre dos puntos del plano euclideano, x =
(x1 , x2 ), y = (y1 , y2 ) ∈ ℜ2 , igualmente
pcomo la longitud del segmento de lı́nea entre
los dos puntos, entonces d2 (x, y) = (x1 − y1 )2 + (x2 − y2 )2 , ver figura 2, o más
generalmente
v
u n
uX
d2 (x, y) = t (xi − yi )2 ,
i=1
para x = (x1 , x2 , · · · , xn ), y = (y1 , y2 , · · · , yn ) ∈ ℜn . Ahora, d2 (·, ·) es un mapeo
de ℜn ×ℜn en ℜ+ , y tiene las mismas propiedades como las de arriba:
Lema 9.6. d2 (·, ·) es un mapeo de ℜn ×ℜn en ℜ+ d2 (x, y) ≥ 0 para todo
x, y, z ∈ ℜn y tiene las siguientes propiedades:
1) d2 (x, y) = 0 sı́ y sólo sı́ |x − y| = 0 sı́ y sólo sı́ x = y.
2) d2 (x, y) = d2 (y, x),
3) d2 (x, y) + d2 (y, z) ≥ d2 (x, z).
d2 (x, y) se llama la métrica Euclideana sobre ℜn . Observamos que, en las
propiedades de la métrica Euclideana, en contraste a las propiedades de la norma
Euclideana, no se usa la estructura algebráica del espacio vectorial de ℜn , solamente
aparece la estructura algebráica de los números reales (el neutro 0 de la suma, el
orden ≤ y la suma entre numeros reales). Sin embargo, siendo definidas ||x||2 sobre
ℜn y d2 (x, y) sobre ℜn ×ℜn , sus formulas hacen evidente las siguientes relaciones:
138
9. ESPACIOS MÉTRICOS Y UNITARIOS
Figure 2. . La distancia entre dos puntos en el plano. Esta
distancia es la distancia canónica en el plano y se basa en el teorema
de Pitágoras.
d2 (x, y)
kxk2
= ||x − y||2 ,
= d2 (x, 0),
x, y ∈ ℜn , 0 el neutro de (ℜn , +).
1.3. ℜn como espacio euclideano. Otra estructura sobre ℜn es el producto
escalar sobre ℜn , también llamado producto interno sobre ℜn , definido como
(x, y) =
n
X
i=1
xi yi , x = (x1 , x2 , · · · , xn ), y = (y1 , y2 , · · · , yn ) ∈ ℜn .
Evidentemente (x, y) es un mapeo de ℜn × ℜn en ℜ. Sabemos que el producto
escalar es importante para definir conceptos geométricos como ángulo, ortogonalidad y paralelidad. Para ver esto, hagamos un ejemplo en ℜ2 .
Ejemplo 9.7. Siempre es posible escribir un vector en ℜ2 como x = (x1 , x2 ) =
r1 (cos(θ1 ), sin(θ1 )), y lo mismo para y = (y1 , y2 ) = r2 (cos(θ2 ), sin(θ2 )), ver figura
3. Entonces el producto interno de x con y es
(x, y)
=
x1 y1 + x2 y2
=
=
r1 r2 (cos(θ1 ) cos(θ2 ) + sin(θ1 ) sin(θ2 ))
r1 r2 cos(θ1 − θ2 )
=
||x|| · ||y|| cos(θ)
donde θ es el ángulo entre los dos vectores x y y. Este resultado también puede
verse como la definición de los ángulos en ℜ2 .
El producto interno tiene interesantes propiedades:
1. ESTRUCTURAS SOBRE ℜ Y ℜn
139
Figure 3. Los vectores x y y escritos en coordenadas polares.
En vez de asignar dos distancias con respecto a los ejes x y y, se
asignan a cada punto su distancia al origen y el ángulo que forman
con el eje x.
que
Lema 9.8. El producto escalar (x, y) definido arriba para x, y, z ∈ ℜn satisface
i) (x + y, z) = (x, z) + (y, z), (αx, z) = α(x, z),
(x, y + z) = (x, y) + (x, z), (x, αz) = α(x, z), para α ∈ ℜ (Bilinealidad).
ii) (x, y) = (y, x), (Simetrı́a).
iii) (x, x) ≥ 0 para todo x ∈ ℜn y (x, x) = 0 ⇐⇒ x = 0.
n
Demostraci
9.9. i) Para P
el primer argumento,
Pón
P seanPx, y, z ∈ ℜ , α ∈ ℜ;
n
(x+y, z) = i=1 (xi +yi )zi = (xi zi +y
Pi zi ) = xi zi +P yi zi = (x, z)+(y, z),
de la misma forma se tiene que (αx, z) = ni=1 αxi zi = α ni=1 xi zi = α(x, z).
La demostración para el segundo argumento es análoga, se usa la distributividad
del grupo (ℜ, +) .
ii) es obvio. P
n
iii) (x, x) = i=1 x2i evidentemente es no negativo, y es igual a 0 sı́ y sólo sı́
2
xi = 0 para todo i (puesto que x2i ≥ 0), lo cual es equivalente a xi = 0 para todo i,
lo cual equivale a x = (0, 0, · · · , 0) = 0 ∈ ℜn . La Bilinealidad en i) significa que el mapeo (·, ·) es lineal en cada coordenada.
Eso no significa que el mapeo es lineal ! Si el mapeo (·, ·) fuese lineal, entonces
tendrı́amos que α(x, y) = (αx, αy). Sin embargo, aplicando la bilinealidad, obtenemos (αx, αy) = α(x, αy) = α2 (x, y). En la propiedad iii), x = 0 significa que x
es el neutro del grupo aditivo ℜn , es decir, x = (0, 0, · · · , 0).
Resumimos lo recordado en las últimas tres subsecciones:
140
9. ESPACIOS MÉTRICOS Y UNITARIOS
Resumen 9.10. Sean x = (x1 , x2 , · · · , xn ) y y = (y1 , y2 , · · · , yn ) ∈ ℜn , entonces
v
u n
uX
kxk2 = t (xi )2 , (Norma euclidiana).
i=1
d2 (x, y)
v
u n
uX
= t (xi − yi )2 , (Métrica euclideana),
i=1
(x, y)
=
n
X
xi yi ,
(Producto escalar o Producto interno).
i=1
Comentario 9.11. Debido a las fórmulas anteriores, las siguientes relaciones
son evidentes:
1)
2)
3)
4)
d2 (x, y) = kx − yk2 ,
kxk2 = d2 (x, 0),
(x, x) = (kxk2 )2 ,
p
kxk2 = (x, x).
En las siguientes secciones vamos a apliar todas estas definiciones a conjuntos o
espacios vectoriales mas generales para construir espacios de soluciones a ecuaciones
diferenciales y a problemas de la fı́sica, quı́mica, ingenierı́a, etc.
2. Espacios Métricos.
La noción de distancia en las ciencias natuales y la ingenierı́a es de suma importancia. Es por eso que definir distancias entre puntos o elementos de un conjunto
es de mucha utilidad para poder modelar objetos y espacios naturales. En esta
sección estudiaremos conjuntos en donde se define una distancia o métrica. Este
concepto esta dada en la siguiente definición.
Definición 9.12. Sea X conjunto y ρ : X × X ⇀ ℜ mapeo, tal que
1) ρ (x, y) ≥ 0, ρ (x, y) = 0, sı́ y sólo sı́ x = y, i.e. positiva definida
2) ρ (x, y) = ρ (y, x) , es simétrica
3) ρ (x, z) ≤ ρ (x, y) + ρ (y, z) se cumple la propiedad del triangulo.
Al par (X, ρ) se le llama espacio métrico y a la función ρ se le llama distancia o métrica.
Observemos que X no necesariamente tiene algún tipo de estructura, es simplemente un conjunto. De hecho, todos los procesos matemáticos emanados de la
definición aterior, como sumas y comparaciones, etc., se llevan a cabo en el campo
ordenado de los reales (ℜ, +, ·, ≤). Veamos algunos ejemplos.
Ejemplo 9.13. Sea X conjunto y
0
ρT (x, y) =
1
si
si
x=y
x 6= y
La distancia entre dos puntos es siempre 1. A esta distancia se le llama distancia discreta.
2. ESPACIOS MÉTRICOS.
141
Ejemplo 9.14. Recordemos el ejemplo de los reales visto en la sección aterior
X = ℜn . Sean x = (l1 , · · · , ln ) y y = (m1 , · · · , mn ). La distancia estandard en ℜn
es
v
u n
uX
2
(li − mi )
ρ (x, y) = t
i=1
A esta distancia se le conoce como la distancia canónica de ℜn .
Ejemplo 9.15. Tomemos de nuevo los reales X = ℜn . Otra distancia en ℜn
está dada por
!1/p
n
X
p
ρp (x, y) =
| l i − mi |
, tal que p ∈ ℜ y p > 1
i=1
A esta distancia se le conoce como la distancia p de ℜn .
Ejemplo 9.16. Sea C ([a, b]) = {f | f es continua en [a, b]}. Una distancia en
este conjunto es
!1/2
Z b
2
ρ (f, g) =
(f (t) − g (t)) dt
a
A esta distancia se le conoce como la distancia canónica de C ([a, b]).
Ejemplo 9.17. Sea C ([a, b]) . Otra distancia en C ([a, b]) es
ρmax (f, g) = max | g (t) − f (t) |
a≤t≤b
A esta distancia se le conoce como la distancia max de C ([a, b]).
P∞
Ejemplo 9.18. Sea L2 dada por L2 = {(l1 , l2 , . . .) | li ∈ ℜ tal que i=1 li <
∞}, llamados los espacios L2 , que consiste del conjunto de vectores de dimensión
infinita que tienen norma finita. La función
v
u∞
uX
(mi − li )2
ρL2 (x, y) = t
i=1
con x = (l1 , l2 , . . .) y y = (m1 , m2 , . . .), es una distancia en L2
Ejercicio 9.19. Demostrar que 1)⇀6) son espacios métricos. 3) sólo para
p = 3.
Es conveniente definir regiones especiales de los espacios métricos. Por ejemplo,
si una región esta llena de elementos del conjunto, en el sentido de que en esa región,
a distancias muy cortas de algún elemento, siempre encontraremos mas elementos
del conjunto o si ciertos puntos del conjunto estan a una cierta distancia de algún
elemento. Al igual que en la sección pasada, en esta sección cuando nos refiramos
a espacio solamente, se trata de un espacio métrico. Iniciaremos con a definición
de bola, esta es
Definición 9.20. Sea (X, ρ) espacio métrico. La bola de centro x ∈ X y radio
r > 0, es el conjunto Br (x) = {y ∈ X | ρ (x, y) < r}, para toda r > 0 y x ∈ X.
Observe que un bola nunca es vacia Br (x) 6= φ pues x ∈ Br (x) .
Ejemplo 9.21. Sea (X, ρT ) espacio. Las bolas en este espacio son todas iguales
Br (x) = {y ∈ X | ρT (x, y) = 1 < r}
142
9. ESPACIOS MÉTRICOS Y UNITARIOS
Ejemplo 9.22. Sea (ℜn , ρ), el espacio real de dimensión n con su distancia
canónica. Las bolas serán verdaderas “pelotas”, como las conocemos de nuestra
experiencia. Por ejemplo, en (ℜ, ρ) las bolas estan definidas como
Br (x) =
=
{y ∈ ℜ | ρ (x, y) = |x − y| < r}
(x − r, x + r)
que es el intervalo cerrado entre x − r y x + r. En (ℜn , ρ) las bolas serán


v
u n


X
u
2
(li − mi ) < r
Br (x) =
y ∈ ℜ2 | ρ (x, y) = t


i=1
2
= {y ∈ ℜ | (l1 − m1 ) + (l2 − m2 )2 + · · · + (ln − mn )2 < r2 }
2
es decir, todos los puntos metidos dentro de una esfera de radio r con centro en x.
Ejemplo 9.23. Sea (Pn ([0, 1]) , ρ), el espacio de polinomios definidos entre
[0, 1] con la distancia canónica de C ([a, b]). Las bolas estan definidas como
Br (f ) = {g ∈ Pn ([0, 1]) | ρ (f, g) < r}.
Sea f (x) = x y tomemos n = 1 por simplicidad. Entonces
Z 1
1/2
2
ρ (f, g) =
(t − (a0 + a1 t)) dt
0
=
1 (1 − a0 − a1 )3 + a0 3
3
1 − a1
!1/2
Por lo tanto, la bola de radio 1 y centrada en x sera
3
B1 (x) = {a0 + a1 t ∈ P1 ([0, 1]) | (1 − a0 − a1 ) + a0 3 < 3 (1 − a1 )}
Para visualizar la superficie de esta bola, hagamos a0 = r cos(θ) y a1 = r sin(θ) y
grafiquemos el espacio de parametros (a0 , a1 ) en coordenadas esféricas. El resultado
se muestra en la figura 4 para r = 0.5.
Ejemplo 9.24. Sea (Fp , ρ), el espacio de las funciones periódicas pares definidos
entre [0, 2π] con su distancia canónica. Sea f (x) = cos(2x), entonces
Z 2π
1/2
2
ρ (f, g) =
(cos(2t) − (a0 + a1 cos(t) + a2 cos(2t) + · · · )) dt
0
=
1/2
2
(2a20 + (a2 − 1) + a21 + · · · )π
Por lo tanto, la bola de radio 1 y centrada en x sera
2
Br (cos(2x)) = {g ∈ Fp | (2a20 + (a2 − 1) + a21 + · · · )π < r2 }
Ejercicio 9.25. Encontrar B1 (0) y B1 (1) en (P1 ([0, 1]) , ρ).
Ejercicio 9.26. ¿Como son las bolas en (P1 ([0, 1]) , ρmax )?
Ejercicio 9.27. Encontrar Br (0) y Br (cos(jx)) en (Fp , ρ).
Ejercicio 9.28. ¿Como son las bolas en (ℜn , ρp )?
2. ESPACIOS MÉTRICOS.
143
Figure 4. La bola de radio 1 y centrada en x del espacio de polinomios definidos entre [0, 1] con la distancia canónica de C([a, b]),
vista en coordenadas polares.
Mas adelante definiremos un espacio topológico. La definición de espacio
topológico esta basada en la definición de conjunto abierto. En un espacio métrico
siempre es posible definir el concepto de conjunto abierto y se puede ver que con esta
definición, todo espacio métrico es topológico. La definición de conjunto abierto es
la siguiente
Definición 9.29. Un conjunto abierto en un espacio (X, ρ) es un subconjunto U ⊆ X tal que para toda p ∈ U siempre existe ǫ > 0 con Bǫ (p) ⊂ U. φ ⊂ X
es siempre abierto por definición.
La primera consecuencia interesante de las bolas, es que estas son abiertas en
el espacio, este resultado lo podemos enunciar como sigue.
Proposición 9.30. Toda bola en un espacio métrico es un conjunto abierto.
Demostración 9.31. Sea y ∈ Br (x) en el espacio (X, ρ) . Para x = y, Br (y) =
Br (x) . Para y 6= x, sea ρ (y, x) = r′ < r y z ∈ Br−r′ (y). Esto implica que
ρ (y, z) < r − r′ . Entonces ρ (x, z) ≤ ρ (x, y) + ρ (y, z) < r′ + r − r′ = r es decir
z ∈ Br (x) y por tanto Br−r′ (y) ⊂ Br (x) . La consecuencia más interesante de estas definiciones es el hecho de que los
abiertos son uniones de bolas. Mas adelante, cuando estudiemos los espacios
topológicos, esta consecuencia es lo que demuestra que un espacio métrico es un
espacio topológico, esto lo podemos enunciar como sigue.
Proposición 9.32. A es un conjunto abierto en (X, ρ) sı́ y sólo sı́ A es unión
de bolas.
Demostración 9.33. =⇒) A es conjunto abierto, esto implica que para toda
x ∈ A existe δ tal que Bδ (x) ⊂ A, esto es A ⊂ ∪ Bδ (x) ⊂ A o sea A =
x∈A
∪ Bδ (x) .
x∈A
144
9. ESPACIOS MÉTRICOS Y UNITARIOS
⇐) Sea A = ∪ Bα siendo Bα bolas en (X, ρ) . Si x ∈ A implica que x ∈ Bβ
x∈I
para algún β, por lo tanto A es abierto. Ejemplo 9.34. Sea (ℜn , ρT ). Las abiertos, con la métrica ρT en ℜn se ven
muy distintas de los abiertos con la métrica canónica. Con esta métrica, una bola
de radio r < 1 es solo el punto central Br<1 (x) = {x} y una bola de radio r ≥ 1
es todo el espacio Br≥1 (x) = ℜn . Entonces cada punto es un abierto y la union de
puntos es un abierto.
Otra definición importante es la de conjunto denso, es decir, la de un conjunto
en el que sus elementos estan tan cercanos unos de otros como se quiera, al lado de
cada elemento existirá otro elemento del conjunto. Esta definición formalmente es:
Definición 9.35. Sea (X, ρ) espacio y sea E ⊆ X. Se dice que E es denso en
X si para toda x ∈ X cualquier Bǫ (x) (ǫ > 0 arbitrario) se cumple que Bǫ (x)∩E 6=
φ.
Ejemplo 9.36. Sea (ℜn , ρ) y Cr (x) = {y ∈ ℜn | ρ (x, y) ≤ r}. Una bola Br (x) =
{y ∈ ℜn | ρ (x, y) < r} es densa en Cr (x) ya que cualquier bola Bǫ (x) con x ∈
Cr (x) tendra al menos un elemento en Br (x).
Ejemplo 9.37. Sea E = ℜ\N el conjunto de los reales sin los naturales. Este
conjunto es denso en los reales, ya que cualquier intervalo cerrado, incluso centrado
en un natural, tendra al menos un elemento de los reales, ver figura 5.
Figure 5. El conjunto E = ℜ\N que es el conjunto de los reales
sin los naturales. Este conjunto es denso en los reales, ya que
cualquier intervalo cerrado, incluso centrado en un natural, tendrá
al menos un elemento de los reales.
Ejemplo 9.38. Los números irracionales son densos en los números reales. Es
por eso que podemos aproximar los números irracionales con algún número racional.
Ejercicio 9.39. Demuestra el siguiente lema:
Si f : ℜ −→ ℜ es biyección, entonces d (x, y) =| f (x) − f (y) | es una métrica
sobre ℜ.
3. ESPACIOS NORMADOS
145
3. Espacios Normados
Regresemos a los espacios vectoriales en donde vamos a introducir un nuevo
concepto llamado la norma, que de una forma intuitiva no dice el tamaño de un
vector. Este concepto lo aprendimos en ℜn y aquı́ lo vamos a definir para cualquier
espacio vectorial, es decir, este concepto solo vale en espacios vectoriales. Esto lo
hacemos en la siguiente definición.
Definición 9.40. Sea V espacio vectorial sobre el campo K y N : V ⇀ K un
mapeo, tal que para toda x ∈ V y α ∈ K se tiene:
1) N (x) ≥ 0 para toda, x ∈ V , N (x) = 0 sı́ y sólo sı́ x = 0.
2) N (αx) = |α|N (x),
3) N (x + y) ≤ N (x) + N (y)
A N se le llama norma de V y a (V, N ) se le llama espacio normado.
Notación 9.41. A la norma la vamos a denotar como N =k · k
La relación entre los espacios normados y los espacios métricos es que todo
espacio normado es métrico, pero no alrevés. Este resultado se puede ver en la
siguiente proposición.
Proposición 9.42. Todo espacio normado es métrico
Demostración 9.43. Sea (V, N ) un espacio normado. Tomemos ρ (x, y) =
N (x − y), para todo x, y ∈ V, espacio vectorial. Entonces ρ (x, y) es una distancia,
ya que
1) ρ (x, y) = N (x − y) ≥ 0 y ρ (x, y) = 0 sı́ y sólo sı́ N (x − y) = 0 o sea sı́ y
sólo sı́ x = y.
2) ρ (x, y) = N (x − y) =| −1 | N (y − x) = ρ (y, x)
3) ρ (x, z) = N (x − z) = N (x − y + y − z) ≤ N (x − y)+N (y − z) = ρ (x, y)+
ρ (y, z). Entonces si definimos un espacio normado, automaticamente hemos definido
un espacio métrico pero no alrevés. Veamos un ejemplo donde un espacio métrico
no puede generar una norma.
Ejemplo 9.44. Sea (ℜ, dln ), con dln (x, y) = |ln (x + 1) − ln (y + 1)|. Veamos
que esta distancia genera una métrica.
i) dln (x, y) ≥ 0, ya que |ln (x + 1) − ln (y + 1)| ≥ 0
ii) dln (x, y) = dln (y, x)
iii)
dln (x, z) = |ln (x + 1) − ln (z + 1)|
= |ln (x + 1) − ln (y + 1) + ln (y + 1) − ln (z + 1)|
≤ |ln (x + 1) − ln (y + 1)| + |ln (y + 1) − ln (z + 1)|
= dln (x, y) + dln (y, z)
Pero esta distancia no genera una norma. Uno esperarı́a que la norma, el tamaño
del vector, debiere estar dado por k x kln = dln (x, 0) = |ln (x + 1)|. Sin embargo
esta no es una norma, ya que no cumple con el inciso 2) de la definición 9.40, por
ejemplo, k 3 · 2 kln =k 6 kln = ln (7) 6= |3| k 2 kln = 3 ln (3).
En los espacios vectoriale el concepto de continuidad es un concepto que depende esencialmente de la existencia de una distancia o de una norma. Las definiciones de continuidad y de lı́mite de una sucesión se puede hacer utilizando una
146
9. ESPACIOS MÉTRICOS Y UNITARIOS
norma o una distancia. En lo que sigue, usaremos el sı́mbolo ρ(x, y) para designar la norma N (x − y) o la distancia ρ(x, y) en un espacio métrico o normado y
designaremos indistintamente los elementos de estos espacios por letras x, y, z, etc.
aunque sean vectores, y diremos explicitamente cuando hay una diferencia.
Como ya hemos definido distancia en un conjunto, ahora es posible definir el
concepto de continuidad. Este concepto consiste en el hecho de que la distancia de
dos imagenes de una función es tan pequeña como se quiera (respecto a la distancia
definida en el conjunto) para dos puntos tan cercanos como se quiera, la definición
formal es como sigue.
Definición 9.45. Sean (X, ρ) y (X ′ , ρ′ ) espacios métricos o normados. Una
función f : X ⇀ X ′ se dice continua en x ∈ X, si para toda ǫ > 0 existe
un δ = δ (ǫ, x) tal que si ρ (x, y) < δ esto implica que ρ′ (f (x) , f (y)) < ǫ. Si f
es continua para toda x ∈ A ⊂ X, se dice que f es continua en A. Si para toda
x ∈ A ⊂ X se tiene que δ = δ (ǫ), se dice que f es uniformemente continua en A.
Ejemplo 9.46. Sea (ℜn , ρ) el espacio real con su métrica canónica. Entonces la
definición de continuidad es la definición tradicional para funciones f : ℜn ⇀ ℜm .
Ejemplo 9.47. Sea (X, ρT ) espacio métrico y sea f : X ⇀ X. Observemos
que no existe una δ tal que para ǫ > 0, digamos ǫ = 0.5 tal que ρT (x, y) = 1 < δ,
implica ρ (f (x) , f (y)) < ǫ, ya que ρ (f (x) , f (y)) = 1. Es decir, con esta métrica,
ninguna función es continua.
Ejercicio 9.48. Sea (ℜ, ρp ). Vean si la función f : ℜ ⇀ ℜ, x → f (x) = x es
continua.
Ahora introducimos el concepto de sucesión. Las sucesiones serán de gran
utilidad para demostrar algunos teoremas, su definición es:
Definición 9.49. Una sucesión es un mapeo de los enteros positivos a un
conjunto X, es decir f : Z + → X, tal que i → f (i) = xi .
Ejemplo 9.50. Sea X = ℜ Entonces f : Z + → ℜ con n → xn = n2 , 1/n,
sin(n), etc. son sucesiónes en los reales.
Las sucesiones más interesantes en un espacio métrico o normado son las sucesiones de Cauchy, estas son sucesiones en las que los elementos de la sucesión estan
tan cerca como se quiera unos de otros, después de algún término de la sucesión
dado. Se definen como sigue.
Definición 9.51. Sea (xi ) para i ∈ Z + una sucesión en (X, ρ) . Se dice que
(xi ) es de Cauchy si para toda ǫ > 0 existe un número entero positivo N ∈ Z +
tal que ρ (xk , xl ) < ǫ si k, l ≥ N.
Ejemplo 9.52. La sucesión en (ℜ, ρ), xn = 1/n es una sucesión de Cauchy,
ya que ρ(xk , xl ) = |1/k − 1/l| < ǫ para algún numero ǫ, siempre que k y l sean
suficientemente grandes.
Ejemplo 9.53. En un espacio (X, ρT ) salvo la sucesión constante, no hay
sucesiones de Cauchy, ya que ρT (xk , xl ) = 1 siempre, los elementos de la sucesión
nunca estan suficientemente cerca.
Ejercicio 9.54. Sea la sucesión xn = 1/n en (ℜ, ρp ) . Vean si esta sucesión es
de Cauchy.
3. ESPACIOS NORMADOS
147
Una sucesion es convergente si para un elemento determinado la distancia de
todos los elementos restantes estan tan cerca como se quiera de algún número x,
donde el número x no necesariamente pertenece a la sucesión. Formalmente se tiene
la definición.
Definición 9.55. Sea xi sucesión en (X, ρ) . xi se dice convergente a x ∈ X,
si para todo ǫ > 0 existe N = N (x, ǫ) ∈ Z + tal que ρ (xn , x) < ǫ si n ≥ N. Se
simboliza por xi ⇀ x.
Notación 9.56. La convergencia de una sucesión también se simboliza como
lim xn = x
n→∞
Ejemplo 9.57. La sucesión en (ℜ, ρ), dada por xn = 1/n es una sucesión
convergente, ya que ρ(xk , 0) = |1/k − 0| < ǫ para algún numero ǫ, siempre que k y
l sean suficientemente grandes.
Ejercicio 9.58. Usando la definición del lı́mite, demuestren que
3n
a) lim n+1
=3
n→∞
1
2
n→∞ n +1
b) lim
= 0.
Ejercicio 9.59. Den un ejemplo que muestra que la convergencia de (|xn |) no
implica la convergencia de (xn ).
Resumen 9.60. Vamos a recordar algunas propiedades de la convergencia de
sucesiones en un espacio métrico o normado (X, ρ):
1) Para toda sucesión, si tiene un lı́mite, este es únicamente determinado.
lim xn = x, en X, sı́ y sólo sı́ lim ρ(xn , x) = 0, en ℜ.
n→∞
n→∞
Las siguientes propiedades nos proporcionan herramientas para calcular lı́mites:
2) Toda sucesión convergente es acotada.
3) Si (xn ) y (yn ) son convergentes con lim xn = x, lim yn = y, entonces las
n→∞
n→∞
sucesiones (xn + yn ) y (xn · yn ) son también convergentes y
lim (xn + yn ) = x + y,
n→∞
lim (xn · yn ) = x · y.
n→∞
4) Si lim xn = x, lim yn = y, y y 6= 0, yn 6= 0 para toda n , entonces
n→∞
lim ( xynn ) =
n→∞
x
y
n→∞
.
5) Si (xn ) y (yn ) son convergentes y xn ≤ yn para todo n, entonces
lim xn ≤ lim yn
n→∞
n→∞
Como corolario de esta propiedad se tiene que aplicando ésta a la sucesión
constante xn = 0 obtenemos: si (yn ) es convergente y yn ≥ 0 para toda n, entonces
lim yn ≥ 0.
n→∞
6) Si (xn ) es convergente y existen a, b ∈ ℜ tales que a ≤ xn ≤ b para toda n,
entonces
a ≤ lim xn ≤ b.
n→∞
7) Si (xn ) es monótona, entonces lo siguiente es verdad:
i) (xn ) es convergente, sı́ y sólo sı́ (xn ) es acotada.
ii) Si (xn ) es creciente y acotada, entonces lim xn = sup({xn , n ∈ N }).
n→∞
iii) Si (xn ) es decreciente y acotada, entonces lim xn = inf({xn , n ∈ N }).
n→∞
148
9. ESPACIOS MÉTRICOS Y UNITARIOS
n
Ejemplo 9.61. La sucesión en (ℜ, ρ) , dada por xn = (1 + 1/n) es también
n
una sucesión convergente y converge a (1 + 1/n) → e.
n
Ejemplo 9.62. Sin embargo, la sucesión en (Q, ρ) , dada por xn = (1 + 1/n)
n
no es una sucesión convergente, ya que (1 + 1/n) → e y e ∈
/ Q. Esta sucesión no
es convergente pero si es de Cauchy.
n
Ejercicio 9.63. Muestren que la sucesión en (Q, ρ) , dada por xn = (1 + 1/n)
es de Cauchy.
Ejercicio 9.64. Den ejemplos de:
a) Dos sucesiones divergentes (xn ), (yn ) tales que la sucesión (xn + yn ) es
convergente.
b) Sucesiones divergentes (xn ), (yn ) tales que la sucesión (xn · yn ) es convergente.
c) Una sucesión acotada que no es convergente.
Ejercicio 9.65. Establecer la convergencia (entonces determinar lı́mites) o
divergencia de las siguientes sucesiones:
2
+5
a) xn = 3n
n2 +1 ,
4n
b) xn = n+1 ,
c) xn =
(−1)n n
n+3 .
Como vemos, la sucesión xn = 1/n es de Cauchy y es convergente. Existe una
conección entre ambos conceptos. Para esto se tiene la siguiente proposición.
Proposición 9.66. En un espacio métrico o normado, toda sucesión convergente es de Cauchy.
Demostración 9.67. Sea xi sucesión convergente a x en (X, ρ) . Entonces
xi ⇀ x implica que para toda ǫ > 0 existe N = N (x, ǫ) ∈ Z + tal que ρ (xn , x) < ǫ/2
si n ≥ N , por tanto ρ (xn , xm ) ≤ ρ (xn , x) + ρ (xm , x) < ǫ si n, m ≥ N. Por supuesto, como ya vimos con un ejemplo, lo contrario de esta proposición
no siempre es verdad. Las sucesiones de Cauchy no siempre son convergentes. Los
espacios en los que toda sucesión de Cauchy converge son muy especiales y tienen
un nombre particular, se tiene la siguiente definición.
Definición 9.68. Un espacio métrico o normado es completo si toda
sucesion de Cauchy converge.
Ejemplo 9.69. Se puede mostrar que los números reales con su norma canónica
es un espacio completo, pero como ya vimos, los racionales no es un espacio completo. Claro, les faltan los irracionales para serlo.
De hecho, cualesquier norma sobre ℜn generan el mismo comportamiento de
convergencia sobre sucesiones, implicando que ℜn con cualquier norma es completo.
Sin embargo, esto no es valido si trabajamos en espacios métricos, vamos a ver uno
ejemplo:
Ejemplo 9.70. Considerese (ℜ, dE ), dE (x, y) = |x − y|, y la sucesión xn =
n, n ∈ N . Claro que lim xn = ∞, es decir, (xn ) no converge en ℜ con respecto a
n→∞
dE , también es claro que (xn ) no es de Cauchy en (ℜ, dE ), debido a que |xn − xm | ≥
1 para todo n, m ∈ N , m 6= n. Ahora tomemos la distancia en ℜ
da (x, y) = |arctan(x) − arctan(y)|
3. ESPACIOS NORMADOS
149
y consideramos el espacio métrico (ℜ, da ). La sucesión (xn ) si es de Cauchy, pues
lim |arctan(n) − arctan(m)| = 0,
n,m→∞
sin embargo, aquı́ igualmente vale que lim xn = ∞, es decir, (xn ) es una sucesión
n→∞
de Cauchy que no converge. Por lo tanto, (ℜ, da ) no es completo, es decir, los reales
no son un espacio completo con esta distancia. Por cierto, observese que este da
no genera una norma sobre ℜ.
Lo que nos dice el ejemplo anterior es que un conjunto puede ser completo con
una distancia y no serlo con otra, incluso esto puede suceder en ℜn . Sin embargo,
en ℜn todas las normas nos dicen que ℜn es completo.
En ocaciones hay espacios en donde las métricas se conservan o hay funciones
en un espacio que conseva la métrica. A estas funciones que conservan las métricas
se les conoce como isometrı́as. Veamos su definición formal.
Definición 9.71. Sean (X, ρ) y (X ′ , ρ′ ) espacios métricos y f : X ⇀ X ′
funcion. f es una isometrı́a si ρ′ (f (x) , f (y)) = ρ (x, y) .
Las isometrias son funciones muy especiales, son inyectivas y uniformemente
continuas, se tiene para ello la siguiente proposición.
Proposición 9.72. Sea f : X ⇀ X ′ isometrı́a. Se tiene
i) f es inyectiva
ii) f es uniformemente continua
Demostración 9.73. i) Sean x, y, ∈ X con x 6= y, entonces 0 6= ρ (x, y) =
ρ′ (f (x) , f (y)) , es decir, f (x) 6= f (y) .
ii) Sea ǫ > 0 y x ∈ X. ρ (x, y) < ǫ implica que ρ′ (f (x) , f (y)) < ǫ = δ. Es más, la composición de isometrı́as, es isometrı́a. Es por eso que con la composición de funciones se puede defirnir un producto. Primero veamos la siguiente
proposición.
Proposición 9.74. La composición de isometrı́as es una isometrı́a.
Demostración 9.75. Sean (X, ρ) , (Y, ρ′ ) , (Z, ρ′′ ) espacios métricos y f : X ⇀
Y y g : Y ⇀ Z isometrı́as. Entonces
ρ (x, y) = ρ′ (f (x, ) f (y)) = ρ′′ (g(f (x)) , g (f (y))
= ρ′′ (g ◦ f (x) , g ◦ f (y))
Con este producto se define entonces un grupo con el conjunto de isometrı́as
sobre. Veamos esto en la siguiente proposición.
Proposición 9.76. Sea (X, ρ) espacio métrico y sea el par
Iso (X, ρ) = ({f : X ⇀ X | f es isometrı́a sobre } , ◦)
donde ◦ es la composición de funciones. Iso (X, ρ) es un grupo, llamado grupo de
isometrı́as del espacio métrico (X, ρ) .
150
9. ESPACIOS MÉTRICOS Y UNITARIOS
Demostración 9.77. Demostremos las propiedades de grupo de Iso :
i) Asociatividad: es claro que (f ◦ g) ◦ h = f ◦ (g ◦ h) para cualquier función
f, g, h ∈ Iso (X, ρ)
ii) id|X ∈ Iso (X, ρ) , pues ρ (Id|X (x) , id|X (y)) = ρ (x, y) , por lo que Id|X
es isometrı́a.
iii) f sobre, como f es isometria, es inyectiva, por tanto f es bijectiva por lo
tanto, existe f −1 tal que f ◦ f −1 = id |X llamada la inversa. En general Iso (X, ρ) no es abeliano, ya que f ◦ g 6= g ◦ f . El grupo de isometrı́as
es de suma importancia en fı́sica, tanto en teorı́as de campo como en gravitación.
Pn
| xi |, con x =
Ejercicio 9.78. Para x ∈ ℜn , se define k x k=
i=1
(x1 , · · · , xn )
a) Demuestra para el caso n = 2 que eso define una norma sobre ℜn .
b) Cuales son los puntos de ℜn que tienen norma 1?
En ℜ2 hay 4 puntos x con k x k= 1, por eso esa norma se denota por k x k4 .
c) Considera k · k4 sobre Z 2 ( x ∈ ℜn con coordenadas enteras), ası́ que para
x = (x1 , x2 ) :k x k4 =| x1 | + | x2 | .
Aplicando que cada norma k · k genera una métrica d por d (x, y) =k x − y k, la
métrica correspondiente a k · k4 es d4 , dada por d4 (x, y) =| x1 − y1 | + | x2 − y2 |,
x = (x1, x2 ), y = (y1, y2 )
¿Cómo se ven las circunferencias con respecto a esta métrica?
(Circunferencia con centro x y radio r es entonces el conjunto Cr (x) = {
y ∈ Z 2 | d4 (x, y) = r},) estudielo para x = (0, 0) , r = 1, 2, 3, 4.
Ejercicio 9.79. Aplicando el lema 9.6, demuestre que d (x, y) =| f (x)−f (y) |
es una métrica sobre ℜ para
ln (x)
para x ≥ 1
f (x) =
(x − 1) para x < 1
Definase para x ∈ ℜ, tal que k x k no es una norma sobre ℜ (¿Cual axioma
falla?)
Eso se debe al hecho que nuestra métrica, por ejemplo, no es invariante bajo
traslación, es decir, existen x, t, a ∈ ℜ tales que d (x + a, y + a) 6= d (x, y) . Encuentre tales x, t y a.
4. Espacios Euclideanos.
En esta sección vamos a estudiar espacios vectoriales con una estructura muy
particular. Se trata de espacios vectoriales en donde se ha definido una distancia ó
una norma, es decir, el tamaño de un vector. Estas estructuras son muy comunes en
ciencias naturales y muy útiles para definir movimiento en estos conjuntos. Primero
introducimos el concepto de producto escalar.
Definición 9.80. Sea V un espacio vectorial real y B : V × V ⇀ ℜ para toda
x, y ∈ V una función bilineal tal que
1) B(x, y) = B(y, x) , i.e. B es simétrica
2) B (x, x) ≥ 0, i.e. B positiva definida
3) B (x, x) = 0, sı́ y sólo sı́ x = 0.
A B se le llama un producto escalar o producto interno en V .
Con esta definición de producto en espacios vectoriales podemos definir el concepto de espacio euclideano
4. ESPACIOS EUCLIDEANOS.
151
Definición 9.81. Al par (V, B) donde V es un espacio vectorial real y B un
producto escalar, se le llama espacio euclideano.
etc.
Notación 9.82. A B también se le denota como (·, ·) , hx, yi , [x, y] , x · y,
Veamos algunos ejemplos de productos internos y de espacios euclideanos.
Ejemplo 9.83. (ℜn , (·, ·)) con (x, y) = l1 m1 + · · · + ln mn , con x, y ∈ ℜn tales
que x = (l1 , · · · , ln ) y y = (m1 , · · · , mn )
P∞
Ejemplo 9.84. Sea L2 = {(l1 , l2 , · · · ) | li ∈ ℜ tal que i=1 li2 < ∞} con el
producto interno
(x, y) =
∞
X
l i mi ,
i=1
x = (l1 , l2 , · · · ) y = (m1 , m2 , · · · )
P
Entonces (L2 , (·, ·)) es un espacio euclideano ya que ni=1 li mi es absolutamente
convergente. L2 es de dimensión infinita.
Ejemplo 9.85. Sea (Pn , ·) el espacio de los polinomios, con el producto interno
· definido por x · y = a0 b0 + a1 b1 + · · · + an bn , para x, y ∈ Pn , donde x = a0 +
a1 x, · · · , an xn y y = b0 + b1 x, · · · , bn xn . Se puede demostrar que con este producto
interno, Pn es un espacio euclideano.
Ejemplo 9.86. Sea CR ([a, b]) el conjunto de las funciones continuas en [a, b].
Sea
(f, g) =
Z
b
f (x) g (x) dx,
a
f, g ∈ CR ([a, b])
entonces (f, g) es un producto escalar. Veamos esto
Demostración 9.87. (f, g) es bilineal, ya que, para la primera entrada de
Rb
(·, ·) se tiene (α1 f1 + α2 f2 , g) = a (α1 f1 (x) + α2 f2 (x)) g (x) dx = α1 (f1 , g) +
α2 (f2 , g) y análogamente para la segunda entrada
(·, ·) es simétrico
Rb
Rb
(f, f ) = a f 2 (x) dx ≥ 0. Ademas si (f, f ) = 0 esto es sı́ y sólo sı́ a f 2 (x) dx =
0 sı́ y sólo sı́ f 2 (x) = 0 para toda x ∈ [a, b] . Habiendo introducido el concepto de producto escalar entre vectores, podemos
ahora introducir el concepto de tamaño de un vector, que es el producto interno
del vector consigo mismo, o sea
Definición 9.88. Sea (V, (·, ·)) un espacio euclideano. A
k x k= ((x, x))1/2
x∈V
se le llama la norma compatible de x.
También es posible definir el tamaño de un vector, su norma, sin necesidad de
definir el producto interno, utilizando la definición 9.40 de norma en espacios vectoriales, no necesariamente con producto interno. De hecho, la norma compatible es
una norma en el espacio vectorial, pero que es compatible con el producto interno.
Vamos a ver esto, pero antes veamos la siguiente proposición:
152
9. ESPACIOS MÉTRICOS Y UNITARIOS
Proposición 9.89 (Desigualdad de Schwarz). El valor absoluto del producto
interno de dos vectores es menor o igual que el producto de las normas, i.e.
| (x, y) |≤k x k · k y k .
Demostración 9.90. Sean x′ , y′ ∈ V y tomemos x =
tal forma que k x k=k y k= 1. Sea t ∈ ℜ, se sigue que
x′
kx′ k
,
y=
y′
ky′ k
de
0 ≤ (x − ty, x − ty) = (x, x) − (x, ty) − (ty, x) + (ty, ty)
= (x, x) − 2t (x, y) + t2 (y, y)
=k x k2 −2t (x, y) + t2 k y k2
= 1 − 2t (x, y) + t2
2
= (t − (x, y)) + 1 − ((x, y))
2
2
El término (t − (x, y)) es siempre positivo o puede ser cero. Si hacemos t =
2
2
(x, y) obtenemos que 0 ≤ 1 − ((x, y)) , lo que implica que
((x, y)) ≤ 1, o sea
| (x, y) |≤ 1. Entonces se tiene que en general |
y′
x′
kx′ k , ky ′ k
|=
1
kx′ kky′ k
(x′ , y′ ) ≤ 1
La relación entre espacios normados y euclidianoes es que todo espacio euclideano es un espacio normado, pero no alrevés. Esto lo vemos en la siguiente
propisición.
1/2
Proposición 9.91. Sea (V, (·, ·)) espacio euclideano y k x k= ((x, x))
tonces (V, k · k) es un espacio normado.
. En-
Ejercicio 9.92. Demostrar la proposición. (Usar la desigualdad de Schwarz)
Vamos a ver algunos ejemplos, pero iniciemos presisamente con un ejemplo
en donde el espacio no es euclidiano, pero es un espacio sumamente interesante e
importante en todas las áreas del conocimiento.
Ejemplo 9.93. Sea L = ℜ2 , (·, ·) , con el producto (x, y) = l1 m1 −l2 m2 donde
x = (l1 , l2 ) y y = (m1 , m2 ). Este no es un producto interno ya que (x, x) = l12 − l22
no es mayor que cero y (x, x) = l12 − l22 = 0 no implica que x = 0. Un espacio con
este pseudo-producto interno se conoce como espacio Pseudo-euclideano o
Espacio de Lorentz. A la norma generada por este producto interno se le llama
Norma de Lorentz. Estos espacios son de vital importancia en fı́sica puesto
que son un modelo del espacio tiempo real y por eso les daremos un lugar especial.
Observemos entonces que con la norma de Lorentz, hay vectores que no son cero,
pero tienen norma (tamaño) igual a cero. A estos vectores se les conoce como
vectores nulos. Generalmente un vector en este espacio se denota como v = (x, t),
se tiene que k v k= x2 − t2 . Los vectores nulos cumplen con la relación x = ±t, es
decir, son los vectores tangente a trayectorias sobre el cono de luz.
Ejemplo 9.94. (ℜn , (·, ·)) con el producto interno canónico. Entonces se puede
definir
una norma y con esta una métrica. La norma será N (x) = (x, x) =
p
l12 + · · · + ln2 , con x =q
(l1 , · · · , ln ). Entonces la métrica canónica está dada por
2
2
ρ (x, y) = N (x − y) = (l1 − m1 ) + · · · + (ln − mn ) para y = (m1 , · · · , mn ).
n
Esta es la métrica canónica de ℜ .
5. ESPACIOS UNITARIOS
153
Ejemplo 9.95. Sea (Pn , ·), con el producto interno · canónico. Hagamos lo
mismo que para (ℜn , (·, ·)). Se tiene que x · y = a0 b0 + a1 b1 + · · · + an bn , para
x, y ∈ Pn , donde x = a0q
+a1 x+, · · · , +an xn y y = b0 +b1 x+, · · · , +bn xn . Entonces
2
2
2
ρ (x, y) = N (x − y) = (a0 − b0 ) + (a1 − b1 ) + · · · + (an − bn ) . La cual es la
métrica canónica para Pn .
Ejemplo 9.96. Sea C ([a, b]) el conjunto de las funciones continuas en [a, b] .
De nuevo podemos construir una métrica en el espacio de funciones como
ρ (f, g) = N (f − g)
= (f − g, f − g)
!1/2
Z b
2
=
(f (x) − g (x)) dx
,
a
f, g ∈ C ([a, b])
la cual es la métrica canónica para C ([a, b]).
Ejemplo 9.97. Sea (Fp , ρ), el espacio de las funciones periodicas definidos
entre [0, 2π] con esta distancia canónica podemos ver cual es la distancia entre
cos(ix) y cos(jx), se tiene:
Z 2π
1/2
2
ρ (cos(ix), cos(jx)) =
(cos(ix) − cos(jx)) dt
0
√
2π, para i 6= j
=
√
√ Ejercicio 9.98. Demostrar que ρ (sin(ix), cos(jx)) = 2π y ρ (sin(ix), sin(jx)) =
2π para i√
6= j. Es decir, la distancia entre los vectores base de las funciones periodicas es 2π.
Ejemplo 9.99. Sea L el espacio de Lorentz.
q Entonces se puede construir la
2
2
métrica ρ (x, y) = NL (x − y) =k x − y k= (x1 − y1 ) − (x2 − y2 ) . Observen
que se pueden tener dos vectores diferentes, pero separados una distancia 0.
Ejercicio 9.100. Demuestre lo siguiente:pSi V es un espacio vectorial sobre
ℜ con producto interno (·, ·) , entonces k x k= (x, x) define una norma sobre V .
Nota: aplicar la desigualdad de Schwarz: | (x, y) |≤k x k · k y k .
5. Espacios Unitarios
En esta sección vamos a generalizar los espacios Euclidianos al caso en el que
el campo del espacio vectorial no sean los números reales, sino el campo de los
complejos. Como veremos, existen varias diferencias interesantes que hacen a estos
espacios sobre los complejos importantes, sobre todo en la mecánica cuántica, que
es importante en fı́sica, quı́mica, ingenierı́a, etc. Su definición es como sigue.
Definición 9.101. Sea E un espacio vectorial sobre C y x, y ∈ E. Sea B :
E × E → C un mapeo lineal en el primer argumento tal que
1) B (x, y) = B (y, x) es antisimétrico
2) B (x, x) ≥ 0 es real
3) B (x, x) = 0 sı́ y sólo sı́ x = 0
154
9. ESPACIOS MÉTRICOS Y UNITARIOS
A B (x, y) = (x, y) se le llama producto escalar sobre E, y a (E, (·, ·)) se le
llama espacio unitario.
Comentario 9.102. Algunas consecuencias inmediatas de la definición anterior son las siguientes:
1) (x, αy) = (αy, x) = α (y, x) = α(y, x) = α (x, y) α ∈ C
2) (x, y1 + y2 ) = (y1 + y2 , x) = (y1 , x) + (y2 , x) = (y1 , x)+(y2 , x) = (x, y1 )+
(x, y2 )
3) |Re (x, y) |≤k x kk y k
Ejercicio 9.103. Demostrar 3)
Veamos algunos ejemplos de espacios unitarios.
Ejemplo 9.104. Sea P
el espacio vectorial C n con el producto interno para x, y ∈
n
C definido por (x, y) = i=1 li · mi , donde x = (l1 , · · · , ln ) y y = (m1 , · · · , mn ),
n
entonces (C , (·, ·)) es un espacio unitario.
n
Ejemplo 9.105. Sea de nuevo L2 , pero ahora sobre el campo de los complejos,
es decir,
)
(
∞
X
2
| li | < ∞
(9.1)
L2 = li , para i = 1, · · · , ∞ | li ∈ C,
P∞
i=1
Entonces (L2 , (·, ·)) con (x, y) = i=1 li · mi es un espacio unitario, con x y y
definidos como en el ejemplo anterior.
Rb
Ejemplo 9.106. CC ([a, b]) y (f, g) = a f (x) g (x)dx, con f, g ∈ CC ([a, b]) es
Rb
un espacio unitario, ya que si f = u + iv, u, v ∈ CR ([a, b]), entonces a f (x) dx =
Rb
Rb
a u (x) dx+i a v (x) dx, y la parte real y la imaginaria forman espacios euclidianos
por separado, entonces no es dificil ver que con este producto (CC ([a, b]) , (·, ·)) es
un espacio unitario.
En este capı́tulo vamos a usar la notación de espacio para designar a un espacio
euclideano o a un espacio unitario. En los casos en que se trate de alguno en
particular, se dirá explicitamente.
La noción de que dos vectores son perpendiculares en el espacio es un concepto
muy usado en geometrı́a euclidiana y en la vida cotidiana. Sin embargo, en un
espacio vectorial arbitrio este concepto no es tan claro, al menos no se pude deducir
intuitivamente. Por ejemplo, que significa que dos funciones o dos polinomios son
perpendiculares. Este concepto nos conduce a la geometrización del espacio vectorial en cuestion. Veamos las siguientes definiciones sobre perpendicular u ortogonal,
que serán muy importantes para la geometrización del espacio.
Definición 9.107. Sea (E, (·, ·)) espacio unitario y sean x, y ∈ E, con x 6= 0
y y 6= 0. Si
1.- (x, y) = 0, x y y se dicen ortogonales o perpendiculares. Se simboliza
x ⊥ y.
2.- Sean H ⊆ E y G ⊆ E. Se dice que H es perpendicular u ortogonal a G,
si para toda x ∈ H y y ∈ G, (x, y) = 0. Se simboliza H ⊥ G.
3.- Sea H ⊆ E y H ⊥ = {x ∈ E | (x, y) = 0 y ∈ H} se llama el complemento
ortogonal de H.
5. ESPACIOS UNITARIOS
155
Ejemplo 9.108. Sea el espacio (ℜn , (·, ·)). Los vectores {ei }i=1,··· ,n definidos
por ei = (0, · · · , 1, · · · , 0), con el 1 en la i − esima posición, son todos perpendiculares entre si.
Ejemplo 9.109. Sea (Pn , ·), con su producto interno canónico. Entonces los
polinomios 1, x, · · · , xn son todos perpendiculares entre si.
Ejemplo 9.110. Sea Fp ([0, 2π]) el conjunto de la funciones periodicas en [0, 2π] .
Entonces las funciones cos(t), cos(2t), · · · sin(t), sin(2t), · · · son perpendiculares
entre si. Esto se ve, si hacemos
Z 2π
(cos(it), cos(jt)) =
cos(it) cos(jt)dt
0
=
πδij
donde δij es la delta de Kroneker.
Ejercicio 9.111. Demostrar que (cos(it), cos(jt)) = πδij , lo mismo que (sin(it), sin(jt)) =
πδij y (sin(it), cos(jt)) = 0.
Estas definiciones tienen consecuencias inmediatas, veamos ahora dos de ellas:
Proposición 9.112. .
1) H ⊥ es subespacio de E
⊥
2) H ⊆ H ⊥
Ejercicio 9.113. Demostrar la proposición anterior
En lo que sigue vamos a introducir uno de los conceptos más importantes con
el que vamos a trabajar en este capı́tulo y el de ecuaciones diferenciales. La idea
es tener un espacio vectorial con vectores perpendiculares que sean solución de un
cierto problema. Para introducir poco a poco estos espacios, vamos a iniciar con
la siguiente definición. Cuando en un espacio vectorial un conjunto de vectores son
perpendiculares entre sı́, este conjunto recibe un nombre especial, este es:
Definición 9.114. Sea (E, (·, ·)) espacio unitario. Sea {xi }i∈I una familia de
elementos de E. Si xi ⊥ xj para todos i, j ∈ I, I un conjunto de indices, i 6= j se
dice que {xi }i∈I es un sistema ortogonal. Si ademas k xi k= 1 para todo i ∈ I,
entonces {xi }i∈I se llama sistema ortonormal.
0, si i 6= j
Observemos que en este caso se sigue (xi , xj ) = δij =
1, si i = j
En un espacio euclidiano la geometrı́a de éste se construye, por ejemplo, utilizando el teorema de Pitágoras. Este teorema utiliza fuertemente el concepto de
lineas o vectores perpendiculares. Vamos a ver ahora que este teorema se cumple en
los espacios euclidianos y unitarios y es la base de su geometrización. Su enunciado
es como sigue.
E,
Teorema 9.115 (de Pitágoras). Sea (E, (·, ·)) espacio. Sean x1 , · · · , xn ∈
tal que {xi }i=1,··· ,n es un sistema ortogonal. Entonces
k x1 + · · · + xn k2 =k x1 k2 + · · · + k xn k2
Demostración 9.116. Vamos a realizar el producto interno de la suma de
todos
del sistema ortogonoal,
es decir, (x1 + · · · + xn , x1 + · · · + xn ) =
Pn
Pn los vectores P
n
k
xi k2 , se sigue entonces el teorema. (x
,
x
)
=
(x
,
x
)
=
i
i
i
j
i=1
i=1
i,j=1
156
9. ESPACIOS MÉTRICOS Y UNITARIOS
Como ya habiamos visto anteriormente, en todo espacio vectorial existe al
menos una base. Lo que veremos a continuación es que en todo espacio vectorial existe al menos una base ortogonal. Este resultado se discute en el siguiente
teorema.
Teorema 9.117 (de Schmidt). Sea (E, (·, ·)) espacio unitario y {yi }i∈1 vectores
lienalmente independiente de E con H = L ({y1 , y2 , · · · }) ⊂ E. Entonces existe un
sistema ortogonal {xi }i∈1 con H = L ({x1 , x2 , · · · }) .
Demostración 9.118. El teorema se demuestra construyendo la base. La idea
de la demostración es que se toma una base arbitraria del espacio vectorial y se
construye la nueva base ortogonal vector por vector, usando combinaciones lineales
de la base origianal, haciendo que cada nuevo vector base sea perpendicular a los
otros. Ejemplo 9.119. Sea el espacio (ℜn , (·, ·)). Los vectores {ei }i=1,··· ,n son perpendiculares todos entre si y su norma es 1. Por lo que esta base forma un sistema
ortonormal en ℜn .
Ejemplo 9.120. Sea (Pn , ·), con su producto interno canónico. Entonces los
polinomios 1, x, · · · , xn son todos perpendiculares entre si y forma un sistema
ortonormal en Pn .
Ejemplo 9.121. Sea Fp ([0, 2π]) el conjunto de las funciones periodicas en
[0, 2π]. Entonces las funciones cos(t), cos(2t), · · · sin(t), sin(2t), · · · son perpendiculares entre si y forman un sistema ortogonal en Fp ([0, 2π]). Oberven que el
conjunto de vectores no tiene norma 1, sino π.
CHAPTER 10
ESPACIOS DE HILBERT Y BANACH
En esta sección nos vamos a enfocar a los espacios completos, con una estructura
de espacio vectorial y que tengan una norma o un producto interno o ambos. Estos
espacios, llamados espacios de Banach y espacios de Hilbert, son muy importantes
porque ahi viven los operadores diferenciales y las soluciones de un sinnumero de
ecuaciones diferenciales. Esto le da una importencia enorme a este tipo de espacios.
Vamos a iniciar con la introducción de algunas propiedades de las series en espacios
normados y luego con la definición de los espacios de Hilber para después pasar a
su manipulación.
1. Sistemas Ortonormales Completos.
Como ya vimos, con la norma se pueden definir conceptos como continuidad,
convergencia, etc. Vamos a iniciar con las series en estos espacios y veamos un
concepto que generaliza el concepto de estas series. Sea (B, k · k) un espacio de
normado, y (xn ) una sucesión en B. Definimos inductivamente una sucesión nueva
(sn ).
Definici
ón 10.1. Sea s1 = x1 , sn+1 = sn + xn+1 para toda n = 1, 2, · · · .
P
sn = ni=1 xi se llama suma parcial n-esima de (xn ). Si (sn ) es convergente,
entonces s = lim sn , con s ∈ B, se llama serie infinita de (xn ), y se denota por
n→∞
P∞
s = i=1 xi .
Comentario 10.2. Para B = ℜ, si (sn ) no es convergente, se consideran dos
casos:
i) (sn ) es una serie propiamente divergente, es decir, lim sn = ∞, o
n→∞
P
lim sn = −∞, entonces se dice que la serie ∞
xi diverge propiamente a ∞ o a
i=1
n→∞
−∞;
ii) En otro
caso, tenemos una divergencia indeterminada de (sn ), se dice
P∞
que la serie i=1 xi es oscilalante.
Comentario 10.3. En ocasiones es útil iniciar la enumeración de (sn ) con
n = 0, o con algún otro número entero. Ası́ que, el analisis de series infinitas, en
su esencia, es el P
analisis de sucesiones
Pn especiales, solo que en cada momento hay
∞
que recordar que i=1 xi = lim ( i=1 xi ).
n→∞
Lema
10.4 (Criterio necesario de convergencia de series). La convergencia de
P∞
la serie i=1 xi implica que lim xn = 0.
n→∞
Demostración 10.5. s =
P∞
i=1
xi = lim sn = lim sn+1 , con sn =
n→∞
n→∞
Entonces podemos escribir 0 = s − s = lim (sn+1 − sn ) = lim xn . n→∞
157
n→∞
Pn
i=1
xi .
158
10. ESPACIOS DE HILBERT Y BANACH
Una aplicación práctica de este criterio de necesidad nos da a saber cuando
una serie no converge. Si se tiene que en una serie lim xn 6= 0, esto implica que la
n→∞
P∞
serie i=1 xi no converge. Sin embargo este criterio no es suficiente. Veamos un
ejemplo.
Ejemplo 10.6. Sea xn = ln(1 + n1 ), tenemos lim xn = 0. Para ver esto
n→∞
último, recordemos que el número de Euler e es el lı́mite de la sucesión creciente
(1 + n1 )n , por eso (1 + n1 )n ≤ e para todo n ∈ N . Aplicando la función estrictamente
monótona ln, se obtiene que ln((1 + n1 )n ) ≤ ln(e) = 1, que implica n ln(1 + n1 ) ≤ 1,
y entonces 0 ≤ ln(1 + n1 ) ≤ n1 . Pero lim n1 = 0, y el criterio de comparació n nos
n→∞
da que 0 ≤ lim (1 + n1 ) ≤ 0, implicando lim (1 + n1 ) = 0.
n→∞
n→∞
Sin embargo, veamos que la serie diverge:
n
n
n
X
X
X
1+i
1
ln(
(ln(i + 1) − ln(i))
ln(1 + ) =
)=
sn =
i
i
i=1
i=1
i=1
= ln(2) − ln(1) + ln(3) − ln(2) + ln(4) − ln(3) + · · · + ln(n + 1) − ln(n)
= ln(n + 1) − ln(1) = ln(n + 1),
lo cual claramente es
una sucesión estrictamente creciente no acotada por arriba,
P∞
lo cual implica que i=1 ln(1 + 1i ) = lim sn = lim ln(n + 1) = ∞
n→∞
n→∞
Recordemos algunos de los criterios más importantes de convergencia para
series, los cuales pueden ser muy utiles en el futuro.
P
Critero 10.7 (de P
Cauchy). Si ∞
i=1 xi es convergente, entonces la sucesión
(sn ) definida por sn = ni=1 xi es de Cauchy.
P∞
Es decir, i=1 xi converge sı́ y sólo sı́ para todo ǫ > 0 existe nǫ ∈ N tal que
m > n ≥ nǫ implica que k sm − sn k=k xn+1 + xn+2 + · · · + xm k< ǫ.
P∞
P∞
Critero 10.8 (de comparación). Si i=1 ai y
i=1 bi son series con ai ≥
0, bi ≥ 0 para toda i, y si existe un número natural n tal que ai ≤ bi para toda
i ≥ n, entonces
P∞
P∞
Si Pi=1 bi converge, también
i=1 ai converge.
P
∞
∞
Si i=1 ai = ∞, entonces i=1 bi = ∞.
Critero 10.9 (de cocientes de d’Alambert). Si xi > 0 para toda i, entonces,
si existe n ∈ N tal que i ≥ n implica
xi+1
≤q<1
xi
P∞
para un q fijo con 0 < q < 1 que no depende dePi, entonces i=1 xi converge. En
∞
xi+1
caso de que i ≥ n e implique xi ≥ 1, la serie i=1 xi es divergente.
Si
xi+1
=g
lim
i→∞ xi
P∞
entonces i=1 xi es convergente para g < 1 y divergente para g > 1 (incluyendo
g = ∞).
Critero 10.10 (de la raiz). Si xi > 0 para toda i, entonces, si existe n ∈ N
tal que i ≥ n implica
√
i
xi ≤ q < 1
1. SISTEMAS ORTONORMALES COMPLETOS.
159
P∞
para un q fijo con 0 < q < 1 que no depende dePi, entonces i=1 xi converge. En
√
∞
caso de que i ≥ n e implique i xi ≥ 1, la serie i=1 xi es divergente.
Si
√
lim i xi = g
i→∞
P
entonces ∞
i=1 xi es convergente para g < 1 y divergente para g > 1 (incluyendo
g = ∞).
Vamos a regresar al tema principal de esta sección. Vamos a estudiar los
espacios ecuclidianos o unitarios completos. Estos espacios tienen una importancia
especial y por eso reciben un nombre especial, se llaman espacios de Hilbert. Los
espacios completos, ya sean Euclidianos y Unitarios, asi como los espacio normados,
son muy importantes y es por eso que les vamos a dedicar este capitulo. El espacio
en donde viven los estados cuánticos son los espacios de Hilbert, formalmente estos
se definen como sigue.
Definición 10.11. Un espacio Unitario o Euclidiano completo se llama Espacio de Hilbert.
Ejemplo 10.12. Como el conjunto de los reales es completo, entonces este
espacio con su producto interno canónico, es un espacio de Hilbert. Pero el conjunto
de los enteros o los racionales no puede ser de Hilbert ni de Banach.
Ejemplo 10.13. Un ejemplo de espacio de Hilbert
es el espacio
P∞muy conocido
L2 definido antes: L2 = (l1 , l2 , · · · ) | li ∈ C tal que i=1 li2 < ∞ con el producto
P∞
interno (x, y) = i=1 li m̄i para x = (l1 , l2 , · · · ), y = (m1 , m2 , · · · ). Este espacio
es
de Hilbert. Su producto interno se denota más comunmente como < x | y >=
P∞
i=1 li m̄i , y las li son los coeficientes de Fourier de algún desarrollo en series.
Los sistemas ortonormales son los conjuntos más apropiados para describir un
espacio de Hilbert. Son base del espacio, pero ademas son ortonormales, con lo
que cualquier elemento del espacio puede ser escrito en terminos de él con relativa
sencilles.
En los espacio Euclidianos o Unitarios podemos hacer la siguiente definición.
Definición 10.14. Sea E un espacio Euclidiano (ó Unitario) y H ⊆ E. Sea
{xi }i∈I una familia de elementos de H e I una familia de ı́indices. {xi }i∈I se
le llama un sistema completo de H si para toda x ∈ H se sigue que x =
P
i∈I (x, xi ) xi , es decir, la serie converge a x. Se dice que el sistema es ortonormal si
1) El sistema es completo
2) {xi }i∈I es una base ortonormal de H
En los espacios de Hilbert siempre existe un conjunto completo que lo genera.
Esta propiedad es muy importante y constantemente utilizada por fı́sicos, quı́micos
e ingenieros. Para demostrar este teorema, es necesario ver primero la siguiente
proposición, la cual enunciaremos sin demostración.
Proposición 10.15. Sea E un espacio de Hilbert y {xi }i∈I una base ortonormal. {xi }i∈I es completo sı́ y sólo sı́ se sigue que si x ∈ E y se cumple que
(x, xi ) = 0 para todo indice i ∈ I, implica que x = 0.
Entonces se puede ver que
160
10. ESPACIOS DE HILBERT Y BANACH
Teorema 10.16. Sea E un espacio de Hilbert. Entonces existe un sistema
ortonormal completo {xi }i∈I en E.
Demostración 10.17. La idea de la demostración es usar la proposición anterior y construir el sistema completo paso paso. En lo que sigue vamos a estudiar la identidad de Parseval. Esta identidad
sirve mucho en el cálculo de las normas en espacios Euclidianos y Unitarios. Esta
identidad la veremos en la siguiente proposición.
Proposición 10.18 (Identidad de Parseval). Sea E espacio Euclidiano o Unitario y sea {xi }i∈I un sistema ortonormal en H ⊂ E. {xi }i∈I es completo sı́ y sólo
P
sı́ k x k2 = i∈I (x, xi )2 para toda x ∈ H.
P Demostración 10.19. ⇒) {xi }i∈I completo implica que para toda x ∈ H x =
i∈I (x, xi ) xi , entonces


X
X
X
||x k2 = (x, x) = 
(x, xi ) xi ,
(x, xi ) (x, xj ) (xi xj ) =
(x, xj ) xj  =
X
i∈I
(x, xi ) (x, xj ) δij =
i,j∈I
X
j,i∈I
j∈I
(x, xi )
2
i∈I
⇐) Sea {yi }i∈I sistema ortonormal, x ∈ H fijo y yn =
yn es perpendicular a x − yn ya que
(yn , x − yn ) =
n
X
i=1
(x, yi ) (yi , x) −
n
X
Pn
i=1
(x, yi ) (x, yj ) (yi , yj ) = 0.
i,j=1
Entonces, por el teorema de Pitágoras
||x||2 = ||x − yn ||2 + ||yn ||2
y esto implica que
Esto es ||x||2 −
Pn
i=1
||x||2 − ||yn ||2 = ||x − yn ||2 .
| (x, yi ) |2 = ||x − yn ||2 . Pero como
||x||2 =
esto implica que
∞
X
i=1
| (x, yi ) |2
lim ||x − yn ||2 = 0
n⇀∞
esto es
lim yn = x =
n⇀∞
(x, yi ) yi ,
i=1
que también podemos escribir como
x=
∞
X
∞
X
i=1
(x, yi ) yi . Pero
(x, xi ) xi = y∞
para (xi )i∈I = (yi )i∈I y esto implica que (xi )i∈I es completo. 1. SISTEMAS ORTONORMALES COMPLETOS.
161
En fı́sica, quı́mica y otras disciplinas cientı́ficas, es muy conveniente escribir las
funciones de algún espacio en terminos de funciones conocidas. Generalmente se
trabaja en estas diciplinas con espacios completos en donde se puede definir una base
ortonormal. Entonces se eligen bases ortonormales que se estudian intensamente
para poder deducir despues propiedades generales de las funciones a estudiar o
se trabaja simplemente con estas funciones en términos de la base del espacio de
Hilbert, usandolas como una buena aproximación de las funciones de interes.
Para esto tenemos la siguiente definición.
Definición 10.20. Sea {xi }i∈I un sistema ortonormal completo en un espacio
de Hilbert E. Entonces
· (x, xi )i∈I se llaman coeficientes de Fourier con respecto a x y la base
ortonormal.
P
· i∈I (x, xi ) xi se llama serie de Fourier.
Cada x ∈ E en un espacio de Hilbert puede ser representado en una serie de
Fourier, en donde esa x puede ser cualquier tipo de elemento, desde polinomios, funciones periodicas, hasta funciones que son la solución de alguna ecuación diferencial
de importancia.
Notación 10.21. A pesar de que los elementos del espacio de Hilbert o Banach
son siempre vectores, a partir de aquı́ vamos a uniformizar la notación, entonces
denotaremos los elementos de estos espacios ya no con negritias x, sino solamente
como x. De cualquier forma, los espacios de Hilbert que más vamos a usar, los de
mayor interes para nosotros, son los espacios vectoriales de funciones.
Veamos algunos ejemplos.
Ejemplo 10.22. Sea ℜn , con xi = ei , i = 1, · · · , n, la base canónica.
Pn
Pn 1) Sea x = (l1 , · · · , ln ). Entonces x se pude representar como x = i=1 li ei =
i=1 (x · ei ) ei .
2) Para los números complejos C n es análogo.
Ejemplo 10.23. Tomemos a L2 con la base
xi = ei = 0, · · · , 1 , · · · .
i−esimo
Sea {xi }i∈I = {xi }i=1,··· ,∞ , entonces {xi }i∈I es un sistema ortonormal completo,
ya que si x ∈ L2 , se tiene que (x, xi ) = li , en donde x = (l1 , · · · ) y
2
∞
2
2
Σ∞
i=1 | (x, xi ) | = Σi=1 |li | = ||x|| .
De la identidad de Parseval se sigue que {xi }i∈I es completo.
Ejemplo 10.24. Sea Cℜ el conjunto de las funciones suaves f : ℜ → ℜ. La
serie de Taylor de esta función alrededor de 0 esta dada por
1 d2 f 1 d3 f 1 df 2
x
+
x
+
x3 + · · ·
f (x) = f (0) +
1! dx x=0
2! dx2 x=0
3! dx3 x=0
Entonces, toda función suave (de hecho en cualquier punto) se puede representar
por un polinomio f (x) = p(x) = a0 + a1 x + a2 x2 + · · · , donde los coeficientes del
polinomio estan dados por
1 dj f aj =
.
j! dxj x=0
162
10. ESPACIOS DE HILBERT Y BANACH
Sea (P, ·) el conjunto de los polinomios de grado arbitrario con su producto canónico
y {pj }j=0,1,··· = {1, x, x2 , · · · }. Es claro que este conjunto de vectores es un sistema
completo en Cℜ . Entonces, toda función suave se puede escribir como
∞
∞
X
X
ai xi .
p · xi xi =
f (x) =
i=1
i=1
Ejemplo 10.25. Sea Fp ([0, 2π]) el conjunto de las funciones periódicas en
[0, 2π]. Un sistema ortonormal completo de este espacio es
1
1
1
{xj }j∈I = √ , √ sin(jt), √ cos(jt)
π
π
2π
j=1,··· ,n
Los coeficientes
dados por
( de Fourier estan
R 2π
(f, cos(jt)) = 0 f cos(jt)dt,
R 2π
(f, xj )j∈I =
(f, sin(jt)) = 0 f sin(jt)dt,
Este conjunto es completo ya que si
Z 2π
Z
0 = (f, xj ) =
f cos(jt)dt o
0
2π
f sin(jt)dt = 0
0
para todo j = 0, · · · , n, se sigue que f = 0.
Ejemplo 10.26. Un ejemplo simple de funciones ortonormales
√ sobre las cuales
se puede hacer un desarrollo de Fourier son las funciones {1/ 2π exp (imx)}m∈I .
Estas funciones forman un sistema ortonormal completo en el intervalo [0, 2π], ya
que
1
1
′
√ exp (imx) , √ exp (im x)
=
2π
2π
Z 2π
1
exp (imx) exp (−im′ x) dx = δmm′
2π 0
para m, m′ ∈ Z. Este sistema ortonormal completo es de gran interes por su uso
en fı́sica, quı́mica e ingenierı́a. Se tiene que una función en el intervalo [0, 2π] se
puede escribir como
X
f (x) =
(f, exp (inx)) exp (inx) , donde
n∈I
(f, exp (inx)) =
1
√
2π
Z
2π
f (x) exp (−inx) dx
0
Ejemplo 10.27. Sea Pn (x) los polinomios de grado n definidos por la fórmula
r
n
dn
2n + 1
1
2
Pn (x) = cn · n x − 1 , con cn =
.
dx
n!, 2n
2
Si integramos por partes n -veces el producto
Z 1
Pm (x)Pn (x)dx = δmn
−1
donde δmn es la delta de Kroneker, vemos que estas funciones son ortogonales.
Como este conjunto de funciones son polinomios de grado arbitrario, el espacio
generado por ellas es isomorfo a (P, ·). Entonces se puede demostrar que el conjunto {Pn (x)}n=1,··· es un sistema completo en el espacio de funciones suaves
1. SISTEMAS ORTONORMALES COMPLETOS.
163
f : [−1, 1]→ ℜ. Esto quiere decir que toda función suave f en [−1, 1] se puede
escribir como
f (x) =
∞
X
(f, Pn ) Pn , donde
n=0
(f, Pn ) =
2n + 1
2
Z
1
f (x)Pn (x)dx
−1
Estos polinomios son llamados polinomios de Legendre.
Ejemplo 10.28. Análogamente a los polinomios de Legendre se definen los
polinomios asociados de Legendre como
l
dm+l x2 − 1
2 m/2
m
m
cn
Pl (x) = (−1) 1 − x
dxm+l
m
d
P
(x)
m/2
l
= (−1)m 1 − x2
dxm
con −l ≤ m ≤ l. Estos polinomios también son ortogonales, haciendo m integraciones por partes se puede ver que
(
Z 1
0
si l 6= l′
m
m
Pl (x)Pl′ (x)dx =
2 (l+m)!
si l = l′
−1
2l+1 (l−m)!
Análogamente como en el caso de los polinomios de Legendre, este conjunto de
funciones también son polinomios de grado arbitrario, asi que el espacio generado por ellas es isomorfo a (P, ·). Entonces se puede demostrar que el conjunto
{Plm (x)}n=1,··· es un sistema completo en el espacio de funciones suaves f : [−1, 1]→ ℜ.
Esto quiere decir que toda función suave f en [−1, 1] se puede escribir como
f (x)
=
∞
X
(f, Plm ) Plm , donde
l=0
(f, Plm ) =
2n + 1 (l − m)!
2 (l + m)!
Z
1
−1
f (x)Plm (x)dx
Ejemplo 10.29. Finalmente, un ejemplo muy importante es una combinacion
del ejemplo 10.26 combinado con los polinomios asociados de Legendre. Si definimos
las funciones
s
2n + 1 (l − m)! m
m
m
P (cos(θ)) exp (imϕ)
Yl (θ, ϕ) = (−1)
4π (l + m)! l
se puede ver que el conjunto {Ylm }l,m∈I es un sistema ortonormal completo. A las
funcines Ylm (θ, ϕ) se les llama armónicos esfericos. Es fácil darse cuenta que
Z 2π
Z 1
′
dϕ
Ylm (θ, ϕ) Ylm
(θ, ϕ) d (cos (θ)) = δll′ δmm′
′
0
−1
y por construcción, este sistema es una base del conjunto de funciones. Este sistema
es muy conveniente para escribir funciones que dependen solo de los angulos θ y ϕ,
es decir, funciones cuyo dominio se encuentra en la esfera. Por eso los armónicos
164
10. ESPACIOS DE HILBERT Y BANACH
esfericos son muy usados en problemas con simetria esférica. Toda función f que
solo depende de estos dos angulos se puede escribir como
f (x)
=
∞ X
l
X
(f, Ylm ) Ylm , donde
l=0 m=−l
(f, Ylm )
=
2n + 1 (l − m)!
2 (l + m)!
Z
2π
dϕ
Z
1
−1
0
f (θ, ϕ)Ȳlm (θ, ϕ)d (cos (θ))
2. Operadores Adjuntos.
Ahora vamos a trabajar en los espacios normados completos, es decir, en los
espacios de Banach. Estos espacios tienen muchas propidades, en ellos viven los
operadores, especialmente los operadores cuánticos. Vamos a definir los operadores
adjuntos y autoadjuntos y veremos algunas de sus propiedades. La definición de
los espacios de Banach es como sigue.
Definición 10.30. Un espacio normado, completo, se llama Espacio de Banach.
Comentario 10.31. Como ya sabemos, todo Espacio Unitario o Euclidiano es
normado, si estos además son completos, son espacios de Banach. Los espacios
normados son también métricos, por lo tanto los espacios de Banach son espacios
métricos.
Más adelante vamos a necesitar el siguiente lema.
Lema 10.32. Sea xn una sucesión tal que lim xn = x0 y f una función. Enn⇀∞
tonces f es continua en x0 sı́ y sólo sı́ lim f (xn ) = f (x0 )
n⇀∞
Ejercicio 10.33. Demostrar el lema.
Proposición 10.34. Sean (E, || · ||) y (F, || · ||) espacios normados y A : E ⇀ F
función lineal. Entonces A es continua sı́ y sólo sı́ es continua en 0 (o en algún
punto x ∈ E.)
Demostración 10.35. ⇒) Trivial.
⇐) Supongamos que A es continua en 0. Sea xn una sucesión en E tal que
lim xn = x. Sea yn := xn − x, esto implica que lim yn = 0. Puesto que A es
n⇀∞
n⇀∞
continua en 0, se sigue que lim A (yn ) = A (0) = 0.
n⇀∞
Entonces
0 = lim A (xn − x) = lim [A (xn ) − A (x)] ,
n⇀∞
n⇀∞
se sigue que lim A (xn ) = A (x) n⇀∞
Las funciones lineales acotadas son las de mayor interés en fı́sica. Cuando la
función es acotada, esta tiene propiedades especiales. Vamos a definir lo que es una
función acotada.
F.
Definición 10.36. Sean (E, || · ||E ) y (F, || · ||F ) espacios normados y A : E ⇀
A se dice acotada, si
sup
||x||E =1
para todo x ∈ E
||A (x) ||F < +∞,
2. OPERADORES ADJUNTOS.
165
Ejemplo 10.37. Sea E = ℜ y A : ℜ ⇀ F , tal que A → A (x) = α · x ∈ F
arbitrario
||A (x) || = ||x · α|| = |x| · ||α||.
Se sigue que
sup ||A (x) || = sup {||α||, −||α||} = ||α|| < +∞
|x|=1
Ejemplo 10.38. Sea C ([a, b]) el conjunto de las funciones continuas en [a, b].
Sea A : C ([a, b]) ⇀ ℜ, tal que
Z b
f ⇀ A (f ) =
f (x) dx.
a
Entonces
||A (f ) || = ||
Entonces se tiene que
Z
b
a
f (x) dx|| ≤
Z
a
b
||f (x) ||dx ≤ ||f || (b − a) .
sup ||A (f ) || ≤ b − a < +∞,
kf k=1
y esto implica que A es acotada.
El concepto de acotada para una función queda más claro despues del lema
siguiente, el cual enuciamos sin demostración.
Lema 10.39. Sean (E, || · ||E ) y (F, || · ||F ) espacios normados y A : E ⇀ F
un mapeo lineal. A es acotada sı́ y sólo sı́ existe c ∈ ℜ, tal que ||A (x) ||F ≤ c||x||E
Es decir, la función es acotada si la norma de sus valores son menores que la
norma del punto en donde se evaluo, para todo punto en el dominio. Las funciones
lineales acotadas son continuas, esta propiedad la demostramos en el siguiente teorema.
Teorema 10.40. Sean (E, || · ||E ) y (F, ||·||F ) espacios normados y A : E ⇀ F
un mapeo lineal. Entonces A es continua sı́ y sólo sı́ A es acotada.
Demostración 10.41. .
⇒) Supongamos A continua. En particular es continua en 0, .i.e. para toda
ǫ > 0, existe δǫ tal que k A (x)−A(0) kF < ǫ, para toda x se sigue que k x−0 kE < δǫ .
Pero A lineal implica A (0) = 0. Tomemos ǫ = 1. Entonces k A (x) kF < 1, para
toda x con k x kE < δ1
(*)
Sea
y
δ1
δ1
tal que k y ′ kE =
< δ1 .
y′ =
2 k y kE
2
Entonces por (*) k A (y ′ ) kF < 1 (**).
Además
2
2
k A (y) kF =k A (y ′ ) kF
k y kE ≤
k y kE
δ1
δ1
por (**). Esto quiere decir que
k A (y) kF ≤ c k y kE , con c =
para toda y ∈ E.
2
δ1
166
10. ESPACIOS DE HILBERT Y BANACH
⇐) Supongamos A es acotada. Entonces existe c tal que k A (x) k≤ c k x k,
x ∈ E. Sea xn una sucesión en E, con lim xn = 0. Entonces
n⇀∞
k A (xn ) − 0 kF =k A (xn ) kF ≤ c k xn kE .
Pero lim xn = 0 sı́ y sólo sı́ lim k xn kE = 0. Se sigue que
n⇀∞
n⇀∞
0 ≤ lim ||A (xn ) kF ≤ lim c k xn kE = 0
n⇀∞
n⇀∞
o sea lim k A (xn ) kF = 0 pero esto es sı́ y sólo sı́ lim A (xn ) = 0 = A (0) .
n⇀∞
n⇀∞
Entonces A es continua en cero por lo que A es continua. El conjunto de funciones lineales acotadas, por tanto continuas, entre espacios
normados, forma un espacio vectorial también. Este concepto lo escribiremos en la
siguiente definición.
Definición 10.42. L (E, F ) = {A | A : E ⇀ F, lineal y acotada.}
Ya sabemos que L (E, F ) es un espacio vectorial, asociado a E y F . Existe un
caso particular de espacios normados muy interesante. Se puede definir una clase
de espacios asociados usando como norma la definición de acotado. Esto se posible
porque esta dafinición es a su vez una norma. Esto es
Lema 10.43. Sea A ∈ L (E, F ). Se tiene que
k A kL = sup k A (x) kF
kxkE =1
es una norma en L (E, F ).
Ejercicio 10.44. Demostrar el lema.
Ejemplo 10.45. Sea E = ℜ2 y sea A la transformación lineal representada por
la matriz
2 1
A=
1 0
Encontremos su norma ||A||. Tomemos un vector x cualquiera x = (l1 , l2 ). Se tiene
||A|| =
=
sup k A (x) k
kxkE =1
sup k
kxkE =1
=
sup
kxkE =1
=
2 1
1 0
2
l1
l2
k
(2l1 + l2 ) + l12
q
2
2
sup 1 + 4l1 + 4l1 1 − l1
Esta ultima función toma valores maximos en 0.923. Por lo que ||A|| = 0.923.
Un resultado que es muy usado en el estudio de las normas de mapeos lineales
es el siguiente:
Lema 10.46. Sea A operador lineal. Entoces ||A (x)|| ≤ ||A|| · ||x||
2. OPERADORES ADJUNTOS.
167
Demostración 10.47. Tomemos
x ||A (x)|| = ||x|| · A
||x|| ya que A es lineal. Por otro lado es claro que si ||y|| = 1, se tiene que
||A (y)|| ≤ sup ||A (y)|| ,
kyk=1
por definición de supremo. De donde se sigue que
||A (x)|| ≤ ||x|| · ||A||
Con esta norma es posible entonces demostrar que el espacio L (E, F ) es a su
vez espacio de Banach, esto se ve en el siguiente teorema, que no demostraremos.
Teorema 10.48. Sea (L (E, F ) , k · kL ) el espacio nomado de las transformaciones lineales y continuas de E a F . Entonces si F es un espacio de Banach,
(L (E, F ) , k · kL ) es de Banach.
Observemos que k · kL es una norma en el espacio asociado, es una norma para
el espacio de funciones lineales. Si E = F , este espacio tiene un trato especial.
Podemos definir
Definición 10.49. Sea E espacio de Hilbert y L (E) = L (E, E) . Con la norma
k A k= sup k A(x) kE ,
L (E)
kxkE =1
es el espacio de Banach de las funciones de E en E lineales y continuas.
Ahora vamos a introducir el concepto de operador adjunto. Para esto, veamos
que en los espacios de Banach podemos construir un producto escalar. Sea A ∈
L (E) . Podemos construir la forma bilineal B (x, y) = (Ax, y) con x, y ∈ E. Tenemos
entonces la siguiente prposición.
Proposición 10.50. Si E es un espacio de Hilbert real, entonces B es una
forma bilineal continua sobre E × E. (Si E es complejo, B es una forma bilineal
continua sobre E, para y ∈ E fijo).
Demostración 10.51. B es bilineal ya que A es lineal y (·, ·) es bilineal. B es
continua, ya que
| B (x, y) | = | (Ax, y) |
≤
≤
k A (x) k · k y k por la desigualdad de Schwarz,
k A k · k x k · k y k por ser A lineal.
Entonces
sup
kxk=1,kyk=1
| B (x, y) |≤
sup
kxk=1,kyk=1
kAk·kxk·kyk
y como A es acotado, se tiene que
sup
kxk=1,kyk=1
es decir B también es acotado. | B (x, y) |≤k A k,
168
10. ESPACIOS DE HILBERT Y BANACH
Ejemplo 10.52. Sea (ℜn , (·, ·)) con su producto canónico. Sea A la matriz
representativa de una transformación lineal. Entonces (Ax, y) = Ax · y. Vamos a
tomar como ejemplo a la matriz.
A=
−1 2
1
0
entonces Ax · y = (−l1 + 2l2 , l1 ) · (m1 , m2 ) = −l1 m1 + 2l2 m1 + l1 m2 para x = (l1 , l2 )
y y = (m1 , m2 )
P∞
Ejemplo 10.53. Sea E = L2 = (l0 , l1 , · · · ) | li ∈ ℜ tal que i=0 li2 < ∞ y
supongamos que los números li son los coeficientes de Fourier de alguna función
suave f . Un operador seria la derivada de f . Como f es suave, su derivada también
tiene una representación de Fourier y por lo tanto la derivada es un operador lineal
tal que d/dx = A : E → E. Para ver un ejemplo, supongamos por simplicidad
que f (x) = p(x) = a0 + a1 x + a2 x2 + · · · , entonces los coeficientes aj = lj , para
toda j = 0, 1, · · · . La derivada de f sera f ′ (x) = p′ (x) = a1 + 2a2 x + · · · , por lo
que la tranformación lineal esta dada por A((l0 , l1 , l2 , · · · )) = (l1 , 2l2 , 3l3 , · · · ) . Su
representación matricial es entonces



A=

ya que



A

0
0
0
l0
l1
l2
..
.
1 0
0 2
0 0
..
.

0
0 ···
3
..
.

 
 
=
 
l1
2l2
3l3
..
.










Ejemplo 10.54. Sea Fp ([0, 2π]) el conjunto de las funciones periodicas en
[0, 2π]. Como ya vimos un sistema ortonormal completo de este espacio es
{xj }j∈I =
1
1
1
√ , √ sin(jx), √ cos(jx)
.
π
π
2π
j=1,··· ,n
Cualquier función periodica en [0, 2π] puede escribirse como
n
n
1 X
1
1 X
bj cos(jx)
f (x) = √ + √
aj sin(jx) + √
π j=1
π j=1
2π
y su derivada será
n
n
1 X
1 X
f ′ (x) = √
jaj cos(jx) − √
jbj sin(jx),
π j=1
π j=1
2. OPERADORES ADJUNTOS.
169
por lo que la matriz (2n + 1) × (2n + 1) que representa esta transformación es


0 0 0
0
0
0
 0 0 0 ···
−1 0
··· 0 


 0 0 0
0
−2
0 




..
..
..
..


. .
.
.



0
0
−n 
(10.1)
B= 0 0 0

 0 1 0 ···
0
0
0 


 0 0 2
0
0
0 




..
..
..
..


.
.
.
.
0 0 0 ··· n 0
0
··· 0
Ejercicio 10.55. Encuentrar la representación matricial de d2 /dx2 en L2 y
en Fp .
Ejercicio 10.56. Encuentrar la representación matricial de 2d2 /dx2 −3d/dx+
1 en L2 y en Fp .
Con estas bases podemos definir el operador adjunto de una función lineal, su
definición formal es como sigue.
Definición 10.57. Sea A ∈ L (E) y (Ax, y) = (x, A∗ y), con x, y ∈ E. A A∗
se le llama el operador adjunto de A.
Ejemplo 10.58. Vamos a tomar de nuevo el ejemplo 10.52. Como ya vimos,
la matrix A cumple que (Ax, y) = (−l1 + 2l2 ) m1 + l1 m2 , donde
−1 2
A=
,
1
0
x = (l1 , l2 ) y y = (m1 , m2 ). Observemos ahora que de igual manera se tiene
(x, AT y) = x · AT y = x · (−m1 + m2 , 2m1 ) = (−l1 + 2l2 ) m1 + l1 m2 ,
por lo que en este caso A∗ = AT . En general veremos más adelante que para toda
matriz simétrica real, su matriz adjunta es la misma matriz original. En el caso de
matrices complejas, si la matriz transpuesta conjugada es la misma que la matriz
original, ésta es igula a su adjunta.
Ejercicio 10.59. Encontrar los operadores adjuntos de las matrices A y B de
los ejercicios 10.55 y 10.56.
de
Definición 10.60. Sea E espacio de Hilbert y A ∈ L (E). Entonces la norma
||A|| = sup |(Ax, y)| .
kxk=1
Las principales propiedades de los operadores adjuntos son que ellos son también
funciones lineales, su norma es la misma que la de la función original y el adjunto
del adjunto es la misma función de salida. Esto lo vemos en la siguiente proposición.
Proposición 10.61. Sea A∗ operador adjunto de A. Entonces
1) A∗ ∈ L (E)
2) k A∗ k=k A k
∗
3) (A∗ ) = A
170
10. ESPACIOS DE HILBERT Y BANACH
Demostración 10.62. Demostremos 1) y 3).
1) A∗ es lineal. Sean x, y1 , y2 ∈ E, α1 , α2 , ∈ ℜ o C. Entonces
(x, A∗ (α1 y1 + α2 y2 )) =
(Ax, α1 y1 + α2 y2 )
=
=
ᾱ1 (Ax, y1 ) + ᾱ2 (Ax, y2 )
ᾱ1 (x, A∗ y1 ) + ᾱ2 (x, A∗ y2 )
=
(x, α1 A∗ y1 ) + (x, α2 A∗ y2 )
Ademas, si 2) se cumple, A∗ es acotado y por tanto continuo.
3)
x, (A∗ )∗ y = (A∗ x, y) , por la definición de adjunto
= (y, A∗ x) = (Ay, x) por las propiedades de (·, ·)
= (x, Ay)
∗
por lo tanto (A∗ ) (y) = A (y) Otras propiedades importantes de los operadores adjuntos se refieren a la suma
de adjuntos, el producto por una constante y la composición de adjuntos, estas son.
Proposición 10.63. Sean A, B ∈ L (E). α ∈ C
∗
1) (A + B) = A∗ + B ∗
∗
2) (αA) = α · A∗
∗
3) (A ◦ B) = B ∗ ◦ A∗
Ejercicio 10.64. Demostrar la proposición
Finalmente vamos a definir los operadores autoadjuntos, estos son muy importantes en fı́sica y quı́mica; se definen como sigue.
Definición 10.65. Sea E espacio de Hilbert y A ∈ L (E) .
· Si A = A∗ , A se llama operador autoadjunto.
· Si A = −A∗ , A se llama operador anti-autoadjunto.
Los operadores autoadjuntos o anti-autoadjuntos son los más interesantes en
fı́sica. En la teorı́a cuántica aparecen estos operadores muy amenudo. Normalmente
los operadores diferenciales cumplen con esta propiedad. Veamos algunos ejemplos.
Ejemplo 10.66. En los ejemplos 10.1, el operador diferencial B es anti-autoadjunto,
ya que B = −B T .
Ejemplo 10.67. Sea E espacio euclidiano y f : E ⇀ E lineal y continua. f lo
representamos por la matriz A. Si f es autoadjunto, la representación de A cumple
con
T
(Ax, y) = (Ax) y = xT AT y = (x, Ay) = xT Ay.
De donde se sigue el siguiente lema.
Lema 10.68. En un espacio euclidiano, todo operador autoadjunto tiene una
representación con una matriz simétrica, i.e. AT = A. Asi mismo, un operador
anti-autoadjunto tiene una representación con una matriz antisimetrica, i.e.
AT = −A.
Lema 10.69. En un espacio unitario, todo operador autoadjunto tiene una representación con una matriz hermitiana, i.e. ĀT = A† = A. Asi mismo, un
operador anti-autoadjunto tiene una representación con una matriz antihermitiana, i.e. A† = −A.
2. OPERADORES ADJUNTOS.
Ejercicio 10.70. Demostrar los lemas 10.68 y 10.69.
171
CHAPTER 11
ESPACIOS CON MEDIDA
1. Medida
Dentro del análisis, los espacios con medida juegan un papel muy importante.
Estos espacios son la base de la teorı́a de probabilidad y estadı́stica, de los espacios
L2 , etc. Aqui nos enfocaremos a los espacios L2 , veremos primero su definición y
luego aplicaciones a las funciones especiales, que son solución de ecuaciones diferenciales importantes en fı́sica, quı́mica, ingenierı́a, matemámticas, etc. Vamos a
introducir la definición de álgebra-σ para poder introducir la definición de medida.
Entonces epecemos con la siguiente definición.
Definición 11.1. Sea Ω conjunto P (Ω) el conjunto potencia de Ω. Sea F ⊆
P (Ω). F se llama álgebra sobre Ω si
1)
φ∈F
2)
A ∈ F implica Ac ∈ F
3)
A1 , A2 ∈ F implica A1 ∪ A2 ∈ F
No hay que confundir el nombre álgebra sobre algún conjunto con el de álgebra
en el sentido algebraico. El nombre es el mismo, aunque las definiciones no tienen
nada que ver. En adelante no habra confución, ya que el concepto que realmente
usaremos en esta sección es el de álgebra-σ, esta se define como sigue.
Definición 11.2. F se llama álgebra-σ sobre Ω si valen 1), 2) y
3’) A1 , A2 , · · · ∈ F implica ∪∞
i=1 Ai ∈ F
En ocaciones el inciso 1) de la definición de álgebra puede cambiarse por
1’) Ω ∈ F.
Obviamente el inciso 1’) y 2) implican 1), por lo que las definiciones son equivalentes. Observemos también que una álgebra−σ sobre Ω es una álgebra sobre
Ω.
Vamos a ver algunos ejemplos.
Ejemplo 11.3. .
1) El conjunto potencia completo es siempre una álgebra o una álgebra-σ sobre
el conjunto original, esto es F = P (Ω) es siempre una álgebra σ sobre Ω.
2) El conjunto formado por el conjunto original y el vacio, son una álgebra-σ
F = {φ, Ω}.
Ejemplo 11.4. F = {φ, A, Ac , Ω} para A 6= φ y A ⊂ Ω es también una álgebraσ sobre Ω.
Ejemplo 11.5. Sea Ω = {a, b, c, d}, entonces una álgebra-σ sobre Ω esta dada
por F1 = {φ, {a, b}, {c, d}, {a, b, c, d}} . Otra álgebra-σ es
F2 = {φ, {a}, {b} , {a, b}, {c, d}, {b, c, d}, {a, c, d}, Ω}, etc.
173
174
11. ESPACIOS CON MEDIDA
Ejercicio 11.6. Demostrar que los ejemplos anteriores son algebras sobre Ω.
Comentario 11.7. Observemos que en la definición de álgebra, las uniones
entre conjuntos ∪ puede cambiarse por intersecciones ∩.
Ejercicio 11.8. Demostrar la observación 11.7 anterior.
La intersección infinita de algebras-σ, es a su vez álgebra-σ. Esto lo veremos
en la siguiente proposición.
Proposición 11.9. Sean {Fi }i∈I una familia de algebras-σ e I un conjunto de
ı́ndices. Entonces ∩ Fi también es álgebra-σ.
i∈I
Demostración 11.10. Sean {Fi }i∈I una familia de álgebras-σ, entonces:
1) φ ∈ Fi para toda i ∈ I esto implica que φ ∈ ∩ Fi
i∈I
2) A ∈ ∩ Fi sı́ y sólo sı́ A ∈ Fi para toda i ∈ I. Puesto que Fi es una
i∈I
σ-Álgebra se sigue que Ac ∈ Fi para toda i ∈ I sı́ y sólo sı́ Ac ∈ ∩ Fi .
i∈I
3) Sean A1 , A2 ∈ ∩ Fi sı́ y sólo sı́ A1 , A2 ∈ Fi para toda i ∈ I esto implica
i∈I
que A1 ∪ A2 ∈ Fi para toda i ∈ I sı́ y sólo sı́ A1 ∪ A2 ∈ ∩ Fi , análogicamente para
i∈I
∪ Aj j∈I
En lo que sigue vamos a introducir las álgebras-σ sobre los espacios métricos.
Para esto introduciremos una definición importante, para que con ella podemos
definir el álgebra σ de Borel.
Definición 11.11. Sea E ⊂ P(Ω). Se define σ(E) = ∩ Fi , donde Fi son
i∈I
algebras-σ, con E ⊂ Fi .
Esta definición pretende construir el álgbra-σ más pequeña de un conjunto
arbitrario. La definición anterior puede interpretarse de la siguiente manera. Sea
Ω conjunto y E ⊂ P(Ω). Supongamos que E no es álgebra-σ. Entonces, si E es un
subconjunto del conjunto potencia donde φ ∈
/ E, entonces se construye E ′ = E ∪φ. Si
E es tal que no todos los complementos de sus conjuntos pertenecen a E, entonces se
construye E” con todos los complementos faltantes y ası́, hasta formar una álgebraσ mı́nima, esta es σ(E). Este proceso equivale a tomar la intersección de todas las
algebras σ sobre Ω, es decir, según la definición anterior, equivale a tomar σ(E).
Ya estamos listos para introducir las álgebra-σ sobre espacios métricos, las
cuales tienen una importancia especial, estas se definen de la forma siguiente.
Definición 11.12. Sea (M, ρ) espacio métrico, y sea E = {U ⊆ M | U abierto}.
A σ (E) se le llama álgebra-σ de los conjuntos de Borel de M.
Ejemplo 11.13. Sea (ℜ, ρ) el espacio métrico real. Entonces
E = {U ⊆ ℜ | U intervalo abierto de ℜ} .
Como los complementos de los intervalos abiertos son uniones de intervalos cerrados, σ (E), y por tanto, los conjuntos de borel de los reales, estará formado por el
conjunto de los intervalos abiertos, unión los intervalos cerrados, unión todos los
números reales, unión el conjunto vacio.
Ejemplo 11.14. Sea X = {a, b}. Un ejemplo de conjuntos abiertos (topologicos) de X son τX = {φ, {a} , {a, b}}. Entonces los conjunto de Borel de τX son
σ(τX ) = {φ, {a} , {a, b} , {b}}.
1. MEDIDA
175
Ejercicio 11.15. Sea E = {bolas en ℜn }. Construir σ (E) y demostrar que es
una álgebra-σ explı́citamente.
Ahora ya estamos en posición de definir espacio medible y medida. Como
veremos, en estos espacios podemos definir funciones especiales ortogonales y series
de Fourier con estas funciones. Vamos a iniciar con los espacios medibles.
Definición 11.16. Sea Ω un conjunto. A la upla (Ω, F ) con Ω 6= φ y F
álgebra−σ sobre Ω se le llama espacio medible.
Definición 11.17. Una función µ : F → [0, ∞) se le llama medida si
1) µ (φ) = 0
2) Para una secuencia A1 , A2 , · · · , ∈ F tal P
que
∞
Ai ∩ Aj = φ i 6= j, se sigue µ (∪∞
i=1 Ai ) =
i=1 µ (Ai ) .
Definición 11.18. Al triplete de (Ω, F , µ) con (Ω, F ) espacio medible y µ medida, se le llama espacio con medida.
Algunas de las propiedades más importantentes de los espacios con medida son
las siguientes.
Lema 11.19. Una medida µ sobre (Ω, F ) es finitamente aditiva.
Demostración 11.20. Sean A1 , · · · , An ∈ F disjuntos con Ai = φ para toda
i = n + 1, · · · . Se sigue entonces que ∪ni=1 Ai = ∪∞
i=1 Ai , esto implica que
µ (∪ni=1 Ai ) = µ (∪∞
i=1 Ai ) =
∞
X
µ (Ai ) =
i=1
n
X
µ (Ai )
i=1
Comentario 11.21. La medida µ > 0 por definición.
Proposición 11.22. Sean A, B ∈ F, µ medida sobre (Ω, F ), espacio medible.
Entonces
a) µ (A ∪ B) ≤ µ (A) + µ (B)
b) Si A ⊆ B, se sigue µ (A) ≤ µ (B)
c) Si A ⊆ B con µ (A) < ∞ se sigue que µ (B\A) = µ (B) − µ (A)
Demostración 11.23. Primero demostremos b)
b) A ⊆ B implica que B = A ∪ (B\A). Se tiene que µ (B) = µ (A ∪ (B\A))
Entonces
µ (B) = µ (A) + µ (B\A) .
Pero µ ≥ 0 implica µ (B) ≥ µ (A)
a) A, B ∈ F A ∪ B = A ∪ (B\A)
Entonces
µ (A ∪ B) = µ (A) + µ (B\A)
por lema 0.41. Pero B\A ⊆ B. Por b) µ (B\A) ≤ µ (B) lo que implica que
µ (A ∪ B) ≤ µ (A) + µ (B) .
c) µ (B) = µ (A ∪ (B\A)) = µ (A) + µ (B\A),
entonces
µ (B\A) = µ (B) − µ (A)
176
11. ESPACIOS CON MEDIDA
Veamos algunas medidas especiales que usaremos en el resto del texto. Unas
medidas muy importantes son la medida de probabilidad y la medida de Dirac. Su
definición formal es como sigue.
Definición 11.24. Una medida tal que µ (Ω) = 1 se llama medida de probabilidad.
Veamos el ejemplo de la medida de Dirac.
Ejemplo 11.25. Medida de Dirac. Sea (Ω, F ) espacio medible y δx tal que
δx : F ⇀ [0, ∞), con
1 si x ∈ A
δx (A) :=
0 si x ∈ Ac
para toda A ∈ F. Veamos que δx es una medida. Primero es fácil ver que δx (Ω) =
1, por lo que δx es una medida de probabilidad, además, es claro que δx (A) ≥ 0
para toda A ∈ F. Sean A1 , A2 , · · · , Ai , · · · ∈ F con Ai ∩ Aj = φ i 6= j, entonces
δx ∪ Ai = 1
i∈I
sı́ y sólo sı́ x ∈ ∪i∈I Ai , esto es sı́ y sólo sı́ existe algún Ai tal que x ∈ Ai , pero no
en los restantes Aj , j 6= i, esto implica que
X
∞
δx (Ai ) = 1
δx ∪ Ai =
i∈I
i=1
Por otro lado, δx (∪i∈I Ai ) = 0, sı́ y sólo sı́ x ∈ (∪i∈I Ai )c , esto es sı́ y sólo sı́
x ∈ ∩i∈I Aci , sı́ y sólo sı́ x ∈ Aci para toda i, lo que implica que δx (Ai ) = 0 para
toda i. Por lo tanto
X
∞
∞
X
δx (Ai )
δx (Ai ) = 0, i.e. δx ∪ Ai =
i=1
i∈I
i=1
Ejemplo 11.26. Sean ℜ los reales y F los conjuntos de Borel en los reales.
Entonces la función l1 : F → ℜ+ tal que l1 es la longitud del intervalo, es decir
l1 ((a, b)) = b − a, es una medida. Veamos esto: l1 (φ) = 0, ademas, si A1 y
A2 son dos intervalos disjuntos, se tiene que l1 (A1 ∪ A2 ) = l1 ((a, b) ∪ (c, d)) =
d − a − (c − b) = b − a + d − c = l1 ((a, b)) + l1 ((c, d)). A esta medida se le llama
la medida de Lebesgue.
Ejemplo 11.27. Sea Ω = {a, b, c, d} y
F = {φ, {a}, {b} , {a, b}, {c, d}, {a, c, d}, {b, c, d}, Ω} .
Entonces la función µ : F → [0, ∞), tal que µ(A) = número de elementos de A.
Esto implica que µ(φ) = 0 y
µ({a} ∪ {b}) = µ({a, b}) = 2 = µ({a}) + µ({b}).
Además
µ({a} ∪ {c, d}) = µ({a, c, d}) = 3 = µ({a}) + µ({c, d}),
µ({b} ∪ {c, d}) = µ({b, c, d}) = 3 = µ({b}) + µ({c, d}),
µ({a} ∪ {b, c, d}) = µ({a, b, c, d}) = 4 = µ({a}) + µ({b, c, d}).
Por otro lado,
µ({a} ∪ {a, b}) = µ({a, b}) = 2 < µ({a}) + µ({a, b}),
etc. Por tanto µ(A) es una medida.
2. INTEGRACIÓN EN ESPACIOS CON MEDIDA
177
Ejemplo 11.28. Si en el ejemplo anterior definimos µ : F → [0, ∞), tal que
µ(A) =número de elementos de A/4, µ(A) se vuelve una medida de probabilidad.
Ejemplo 11.29. Sea (Ω, F ) espacio medible (xk )k=1,··· ,∞ una serie en Ω y
P∞
(ck )k=1···∞ una sucesion de números (ck )k=1,··· ,∞ ⊆ [0, ∞). Tomamos µ = k=1 ck δxk .
P∞
Entonces µ es una medida llamada la medida discreta. Si además k=1 ck = 1,
µ se llama medida discreta de probabilidad.
P∞
Ejercicio 11.30. Demuestren que µ = k=1 ck δxk es una medida.
Ejercicio 11.31. Sea (ℜ, E) espacio medible, A ⊂ E los conjuntos deR Borel de
ℜ y h : ℜ → ℜ real, positiva e integrable en A. Demuestren que µ(A) = A h dx es
una medida.
2. Integración en espacios con Medida
En esta sección veremos como se puede integrar en espacios con medida. Realmente estamos interesados en la integración de Lebesgue y para ello tenemos que
introducir algunas definiciones. Empecemos por la definición de función indicadora.
Definición 11.32. Sea δx (A) la medida de Dirac. La función indicadora
χA se define como χA : Ω ⇀ [0, +∞), x ⇀ χA (x) = δx (A) .
De hecho, toda función para la cual la imagen inversa de los conjuntos de
Borel es un elemento de la álgebra-σ en el conjunto, se le llama función medible,
formalmente esta se define como
Definición 11.33. Sea (Ω, F ) espacio medible. A toda función f : Ω ⇀ ℜ se
le llama función medible, si f −1 (X) ∈ F, para toda X ∈ E.
Ejemplo 11.34. Vamos a ver aqui que las funciones indicadoras χA son funciones medibles. Veamos primero que, para una A fija se tiene que χA (x) = δx (A) :
Ω → ℜ. Observemos que esta función es 1 para toda x ∈ A, y 0 de lo contrario.
De hecho χA es una función escalón. Sea X ∈ E, y veamos cuanto vale χ−1
A (X).
Se tiene que, X = {1} ó X = {0}. Entonces
−1
c
χ−1
A (1) = A ∈ F y χA (0) = A ∈ F
por lo que χA es una función medible.
Finalmente, la integración en espacios con medida se hara en base a las funciones simples, su definición es
Definición 11.35. Sea (Ω, F ) espacio medible y sea fn una función medible
ahı́. fn se dice simple si existen a1 , · · · , an ∈ ℜ con n ≥ 1, A1 , · · · , An ∈ F tal
que
fn =
n
X
a i χA i
i=1
en el espacio medible (Ω, F ) .
Esto quiere decir que toda función simple se puede escribir como la superposición de funciones indicadoras por cada intervalo. Las funciones simples estan
formadas por porsiones constantes en cada intervalo Ai para i = 1, · · · , n. Lo más
interesante de las funciones medibles es que ellas pueden escribirse como el lı́mite
de funciones simples. Esto lo veremos en la siguiente proposición.
178
11. ESPACIOS CON MEDIDA
Proposición 11.36. Sea f medible, f ≥ 0. Entonces existe (fn )n=1,...,∞ con
1) fn : Ω → ℜ para todo n
2) fn simple para todo n
3) fn > 0 para todo n
4) fn ≤ fn+1 para todo n
5) f = lim fn
n→∞
Demostración 11.37. Vamos a construir las funciones (fn )n=1,··· ,∞ . Sean
las funciones
4n
X
i−1
χf −1 ([ i−1
+ 2n χf −1 ([2n ,∞))
fn =
i
n
2n , 2n ))
2
i=1
las cuales se puede también descomponer en sus partes. Sea ω ∈ Ω, se obtiene:
i−1
i
n
para i−1
2n
2n ≤ f (ω) < 2n con i = 1, · · · , 4
fn (ω) =
n
n
2
para
f (ω) ≥ 2
Claramente esta función cumple con las condiciones 1) a 4)de la proposición.
i
, esto implica que
Queda por demostrar que f = lim fn . Sea ω ∈ f −1 i−1
2n , 2n
fn (ω) =
i−1
2n ,
n→∞
por la definición de fn . Se tiene que:
i
i−1
≤ f (ω) < n ,
2n
2
y por tanto
0 ≤ |fn (ω) − f (ω)| ≤
1
2n
lo que implica que
lim fn = f (ω)
n→∞
Vean la figura 1 donde se muestra un ejemplo de las funciones simples f .
Definición 11.38 (Integral de Lebesgue de funciones simples). Sea (Ω, F , µ)
espacio con medida y fn : (Ω, F ) ⇀ (ℜ, E), función simple donde E es la álgebra-σ
de Borel de ℜ. Sea Ak = {x ∈ Ω | fn (x) = ck ∈ ℜ} k = 1, · · · , n. Se define
Z
n
X
fn (ω) µ (dω) :=
ck µ (Ak )
Ω
k=1
En general, puede tomarse cualquier secuencia (Bi )i=1,...,n de elementos de F .
La integral de Lebesgue tiene varias propiedades, vamos a enumerar y demostrar
algunas de ellas.
Proposici
ón 11.39. Sean f1 ,yR f2 funciones simples.
Entonces
R
R
f
µ(dω)
f
µ(dω)
+
α
1) (α1 f1 + α2 f2 ) µ(dω) = α
2
1
2
1
R
R
2) Si 0 ≤ f1 ≤ f2 , entonces f1 µ(dω) ≤ f2 µ(dω)
Es decir, la integral es un funcional lineal y monotona.
Demostración 11.40. Solo veremos una idea de la demostración.
1) Se sigue por construcción. Sea
kX
1 +k2
1 ≤ i ≤ k1
b1i
f1 + f2 =
bi =
bi χBi .
2
bi − k1 k1 + 1 ≤ i ≤ k2 + k1
i=1
2. INTEGRACIÓN EN ESPACIOS CON MEDIDA
179
4.5
f
f1
4
3.5
3
f
2.5
2
1.5
1
0.5
0
-1
0
1
2
3
4
5
6
5
6
x
4.5
f
f2
4
3.5
3
f
2.5
2
1.5
1
0.5
0
-1
0
1
2
3
4
x
Figure 1. La función f = 18 x3 − x2 + 2x + 23 (linea continua) y
sus correspondientes funciones simples (cruces) f1 , en al figura de
arriba y f2 , en al figura de abajo. Las fn se aproximan a la función
original f para n grande. En estas dos figuras esto es muy notorio.
entonces
Z
(f1 + f2 ) µ(dω) =
kX
1 +k2
bi µ (Bi )
i=1
=
k1
X
k2
X
b2i µ Bi2
b1i µ Bi1 +
Zi=1
Z i=1
= f1 µ(dω) + f2 µ(dω).
2) Tenemos f2 − f1 ≥ 0,
f2 = (f2 − f1 ) + f1
180
11. ESPACIOS CON MEDIDA
Entonces
0≤
pero
R
Z
f2 µ(dω) =
Z
(f2 − f1 ) µ(dω) +
(f2 − f1 ) µ(dω) ≥ 0 por lo tanto
R
f2 µ(dω) ≥
R
Z
f1 µ(dω),
f1 µ(dω). Después de esta proposición ya estamos en posición de definir la integral de
Lebesgue. Esta se realiza utilizando funciones simples, esto es:
Definición 11.41 (Integral de Lebesgue). Sea f : (Ω, F ) ⇀ (ℜ, E) función
y (Ω, F ) espacio medible y E el álgebra-σ de Borel. Sea (fk )k=1,··· ,n una serie de
funciones simples, tal que fk ≤ fk+1 para toda k, y f = lim fk . Entonces:
k→∞
Z
f (ω) µ (dω) := lim
n→∞
Z
fn (ω) µ (dω) .
Debido a la proposición anterior, aqui también se sigue que la integral es lineal
y monótona. El teorema más importante correspondiente a la integral de Lebesgue,
el cual daremos sin demostración, es el siguiente.
Teorema
R 11.42 (de Lebesgue). Sean g, fn : (Ω, F ) ⇀ (ℜ, E) tal que | fn |≤ g
para toda n, gµ(dω) es finita y f = lim fn . Se sigue que
n→∞
Z
es decir, f es integrable y
R
f µ(dω) = lim
n→∞
Z
fn µ(dω)
f µ(dω) es finita.
Para comprender el teorema y aprender a manipular la integral de Lebesgue,
es conveninte ver algunos ejemplos simples.
Ejemplo 11.43. Sea (ℜ, E) el espacio medible con E el álgebra-σ de Borel y
l1 : E ⇀ [0, +∞) tal que l1 ((a, b)) = b − a (con a < b por facilidad) es la medida de
Lebesgue. Entonces, si f : ℜ ⇀ ℜ, se tiene
Z
Z b
f (x) dx
f (x)l1 (dx) =
a
(a,b)
Vamos a explicar este punto. Sabemos que existe una serie de funciones simples
fk con f = lim fn tal que en los intervalos Ak , la función sea constante, es decir,
n→∞
Ak = (ak , bk ) = {x ∈ Ω | fk (x) = ck ∈ ℜ}. Se sigue que
Z
Z
f (x) l1 (dx) = lim
fn (x) l1 (dx)
n→∞
(a,b)
=
=
lim
n→∞
lim
n→∞
n
X
k=1
n
X
k=1
ck l1 (Ak )
fk (x) (bk − ak ) =
Z
b
f (x) dx.
a
Es decir, la integral de Lebesgue con la medida de Lebesgue es la integral de Riemann.
3. ESPACIOS Lp
181
Ejemplo 11.44. Sea (ℜ, E) el
R espacio medible con E el álgebra-σ de Borel y
µ : E ⇀ [0, +∞) tal que µ (A) = A h dx con h : ℜ ⇀ ℜ. Entonces, si f : ℜ ⇀ ℜ,
se tiene
Z
Z
b
f (x)µ (dx) =
f (x) h(x)dx
(a,b)
a
Tomemos de nuevo la serie de funciones simples fk con f = lim fn tal que en
n→∞
los intervalos Ak , la función sea constante, es decir, Ak = (ak , bk ) = {x ∈ Ω | fk (x) = ck ∈ ℜ}.
Se sigue que
Z
Z
f (x) µ (dx) = lim
fn (x) µ (dx)
n→∞
(a,b)
=
=
=
lim
n→∞
lim
n→∞
lim
n→∞
n
X
k=1
n
X
k=1
n
X
k=1
ck µ (Ak )
ck
Z
bk
h (x) dx
ak
ck lim
m→∞
m
X
h (xl )
l=1
(bk − ak )
.
m
Observemos que m se puede cambiar por n, ya que los dos van a infinito, aún más,
si adaptamos la segunda suma a la primera poniendo los puntos xl ’s junto con los
ck ’s, ya que los dos son contados por un número infinito de puntos, obtenemos:
Z
n
n
X
X
(bk − ak )
f (x) µ (dx) = lim
ck
h (xl )
n→∞
n
(a,b)
=
=
lim
n→∞
Z
b
k=1
n
X
l=1
fk (x) h (xk )
k=1
(bk − ak )
n
f (x) h(x) dx.
a
Es decir, la integral de Lebesgue con la medida µ(A) =
Riemann con un peso.
R
A
h dx es la integral de
Ejercicio 11.45. Realizar la misma integral pero con la medida de Dirac.
3. Espacios Lp
Finalmente vamos a introducir la definición de espacios Lp , para despues dedicarnos a estos espacios con p = 2. Para eso, vamos a introducir una relación de
equivalencia en los espacios con medida para poder definir los espacios que queremos.
Definición 11.46. Sea (Ω, F ) espacio medible y µ medida en (Ω, F ) . Se define
L0 (Ω, F ) = {f : Ω ⇀ ℜ | f es función medible}, i.e. f −1 (X) ∈ F, para toda
X ∈ E.
Se puede ver entonces que el espacio L0 forma un espacio vectorial con las
operaciones canonicas entre funciones. Es decir:
Proposición 11.47. L0 es un espacio lineal.
182
11. ESPACIOS CON MEDIDA
Los espacios Lp se basan en el hecho de que los espacios de todas las funciones
medibles se pueden separar en clases de equivalencia. La relación de equivalencia
que separa estos espacios en clases se introduce en la siguiente definición.
Definición 11.48. Sean f, g, ∈ L0 y µ medida. Sea ∼µ la relación f ∼µ g si
µ ({x ∈ Ω | f (x) 6= g(x)}) = 0, con µ medida en (Ω, F ) .
Proposición 11.49. La relación ∼µ es de equivalencia
Demostración 11.50. Veamos las tres condiciones de relación de equivalencia
1) f ∼µ f ya que µ ({x ∈ Ω | f (x) 6= f (x)}) = µ(φ) = 0
2) f ∼µ g implica que µ ({x ∈ Ω | f (x) 6= g(x)}) = 0, por tanto g ∼µ f
3) Sean f, g, h ∈ L0 tales que f ∼µ g y g ∼µ h. Denotemos por
A =
B
M
=
=
{x ∈ Ω | f (x) = g(x)},
{x ∈ Ω | g(x) = h(x)}
{x ∈ Ω | f (x) = h(x)}
Como f ∼µ g y g ∼µ h se sigue que µ(Ac ) = 0 y µ(B c ) = 0. De lo anterior se
tiene que f = h sı́ y sólo sı́ f = g y g = h asi que M = A ∩ B lo que implica que
M c = Ac ∪ B c . Entonces
µ ({x ∈ Ω | f (x) 6= h(x)}) = µ(M c ) = µ (Ac ∪ B c ) ≤ µ (Ac ) + µ (B c ) = 0
lo que implica que f ∼µ h. Con esto ya podemos introducir la definición de los espacios Lp , su definición
se basa en el conjunto de clases de equivalencia con la relación ∼µ . Se definen como
sigue.
Definición 11.51. Sea L0 (Ω, F , µ) = L0 (Ω, F ) / ∼µ . Se define
Z
Lp = {f ∈ L0 (Ω, F , µ) | f (x) |p µ (dx) , es finita },
Ω
de tal forma que Lp es un espacio normado, con la norma k f kp =
R
Ω
1/p
| f |p µ(dx)
La propiedad más importante de estos espacios es que son espacios normados
y completos, o sea, de Banach. Vamos a enunciar este importante teorema sin
demostración:
Teorema 11.52. Para todo 1 ≤ p < ∞, Lp es lineal y completo, es decir, Lp
es espacio de Banach.
Los casos especiales más interesantes son sin duda
p = 1, L1 = Espacio de las funciones integrables.
p = 2, L2 = Espacio de Banach de las funciones cuadraticas integrables bajo la
medida µ.
Estos dos espacios son de suma importancia en fı́sica, quı́mica, matemáticas,
mecánica cuántica, etc. Particularmete, en L2 también es posible defirnir un producto interno, convirtiendo estos espacios en espacios de Hilbert. Esto se ve en la
siguiente proposición.
Proposici
ón 11.53. L2
R
(f, g) = Ω f (x) g (x) µ (dx)
es un espacio de Hilbert con el producto escalar
4. DESARROLLO DE FOURIER EN L2
183
Demostración 11.54. Claramente las propiedades de producto escalar se cumplen
para (f, g) . Como LP es de Banach, es completo y lineal, por lo tanto es espacio
de Hilbert con (f, g) su producto interno. Observemos que en L2 la norma esta dada por
k f kL2 =
Z
1/2
| f | µ(dx)
= [(f, f )]1/2
2
Ω
por lo que, la norma y el producto interno en estos espacios, son compatibles.
Las generalización a espacios complejos se sigue del hecho que f = u + iv ,
en tal caso, usando la linealidad de la integral de Lebergue, se siguen las mismas
propiedaes equivalentemente como para f real.
4. Desarrollo de Fourier en L2
Los espacios de interes para la fı́sica, como ya dijimos, son los espacios L2 . En
estos espacios se definen las series de Fourier, entre otras. Vamos a dedicarles esta
sección dada su importancia. Empecemos con la siguiente definición.
Definición 11.55. Sea L2 = L2 (Ω, F , µ) espacio de Hilbert tal que existe un
sistema (fi )i=1,...,n ortonormal completo. Sea f ∈ L2 , cuyo coeficiente de Fourier
estan dados por
Z
ai = (f, fi ) =
A la serie f =
P∞
i=1
f (x) fi (x) µ (dx) .
Ω
ai fi se le llama serie de Fourier de f.
Ejemplo 11.56. Consideramos el espacio
n L2 ([−π, π]) con la medidaode Lebesgue.
Como ya hemos visto, el sistema Tn =
√1 , √1
π
2π
sin(kx),
√1
π
cos(kx)
k=1,··· ,n
es
ortonormal y es completo en
T ([−π, π]) = {f | f (x) =
n
X
ak cos (kx) + bk sin (kx)}
k=0
llamado el conjunto de las funciones trigonométricas. En general (Tn )n=1,...,∞
es un sistema ortonormal completo en Lp .
L2 .
Ejercicio 11.57. Demuestre que (Tn )n=1,...,∞ es un sistema ortonormal en
Definición 11.58. Sea E espacio de Hilbert y E una álgebra-σ sobre E. Se
define
B (E, E) = {f : (E, E) ⇀ ℜ | f es medible y acotada}
Cℜ (E) = {f : E ⇀ ℜ | f es continua y acotada}
Se puede mostrar que Cℜ (E) ⊂ B (E, E) ⊂ Lp , y ambas son subconjuntos
lineales de Lp . Es más, estos espacios son densos, por lo que podemos acercarnos
tanto como queramos por medio de una base ortonomal completa a cada elemento
de estos espacios, esto se ve en la siguiente proposición.
Proposición 11.59. Sea E espacio de Hilbert y E los conjuntos de Borel de
los reales.
1) B (E, E) es denso en Lp
2) Cℜ (E) es denso en Lp
184
11. ESPACIOS CON MEDIDA
Con esta proposición se puede mostrar que T ([−π, π]) es denso en Lp ([−π, π]).
Unos ejemplos de mucha importancia para la teorı́a de ecuaciones diferenciales son
los siguientes.
Ejemplo 11.60. El sistema
1 ikx
fk = √ e
2x
k∈Z
es un sistema ortonormal completo en el espacio L2 complejo ([−π, π]) .
Ejemplo 11.61. El sistema
(
)
r
n
dn
1
2n + 1
2
Pn = cn · n x − 1 , con cn =
dx
n! 2n
2
n∈N
es un sistema ortonormal completo en L2 ([a, b]) con la medida de Lebesgue. A estos
polonomios se les llama Polinomios de Legendre.
Ejemplo 11.62. Tomemos L2 (ℜ, µ) con la medida
Z
h (x) dx,
µ (A) =
A
A ∈ E con h (x) = e−x . Entonces el sistema 1, x, x2 , · · · es un sistema ortonormal completo en este espacio. Si
2
Hn = c k e x
2
dn −x2
e
dxn
n ≥ 0,
L ({H0 , · · · , Hn }) = L
A Hn se les llama los Polinomios de Hermite.
1, x, · · · , x2n .
5. Funciones Especiales
Existen una serie de funciones que tienen caracteristicas muy particulares. Lo
importante de estas funciones es que son solución de diferentes ecuaciones diferenciales muy comunes en fı́sica, quı́mica, ingenierı́a, etc., por eso su estudio requiere
de una sección aparte. Hay una forma de estudiar todas estas funciones especiales
de una forma unificada, es la versión que adoptaremos aqui. Todas estas funciones
tienen caracteristicas comunes y adoptando esta versión unificada es posible estudiar sus caracteristicas comunes de una sola vez.
Definición 11.63 (Fórmula de Rodriques). Sea
(11.1)
Pn (x) = cn
1 dn
(hsn ),
h dxn
tal que
1) Pn es un polinomio de grado n y cn una constante.
2) s(x) es un polinomio de raices reales de grado menor o igual a 2
3) h : ℜ → ℜ es una función real, positiva e integrable en el intervalo [a, b] ⊂ ℜ,
(llamada peso) tal que h(a)s(a) = h(b)s(b) = 0.
Con esta definición es posible definir la mayoria de las funciones especiales más
comunes. Daremos algunos ejemplos.
5. FUNCIONES ESPECIALES
185
2
Ejemplo 11.64. Los polinomios de Hermite Hn estan dados por h = e−x ,
s = −1, cn = 1, en el intervalo (−∞, ∞), es decir
n
Hn (x) = (−1) ex
2
dn −x2
(e
)
dxn
por lo que los primeros términos serán:
H0 = 1,
H1 = 2x,
H2 = 2 − 4x2 ,
H3 = 4x(−3 + 2x2 ),
H4 = 12 − 48x2 + 16x4 , etc.
Ejemplo 11.65.
q Los polinomios de Legendre Pn están dados por h = 1, s =
1
2
1 − x , cn = n! 2n 2n+1
2 , en el intervalo [−1, 1], es decir
n
n
(−1) dn
( 1 − x2 )
n
n
2 n! dx
por lo que los primeros términos serán:
P0 = 1, P1 = x, P2 = 12 3x2 − 1 ,
P3 = 12 x(5x2 − 3),
P4 = 18 35x4 − 30x2 + 3 , etc.
Pn (x) =
Ejemplo 11.66. Los polinomios de Laguerre Ln dados por h = e−x , s = x,
cn = 1, en el intervalo (−∞, ∞), es decir
Ln (x) = ex
dn n −x
(x e )
dxn
por lo que los primeros términos serán:
L0 = 1,
L1 = −x + 1,
L2 = x2 − 4x + 2,
L3 = −x3 + 9x2 − 18x + 6,
L4 = x4 − 16x3 + 72x2 + 96x + 24, etc.
Ejercicio 11.67. Escriba los primeros 4 términos y de una ecuación diferencial
caracteristica de los polinomios de Tchebichef de primera clase Tn dados por
h = (1 − x2 )−1/2 , s = 1 − x2 , en el intervalo [−1, 1].
Ejercicio 11.68. Escriba los primeros 4 términos y de una ecuación diferencial
caracteristica de los polinomios de Jacobi Pnν,µ dados por h = (1 − x)ν (1 + x)µ ,
ν > −1, µ > −1, s = 1 − x2 , en el intervalo [−1, 1] .
Ejercicio 11.69. Escriba los primeros 4 términos y de una ecuación diferencial
caracteristica de los polinomios de Gegenbauer Cnλ dados por h = (1 − x2 )λ−1/2 ,
λ > − 21 , s = 1 − x2 , en el intervalo [−1, 1] .
Ejercicio 11.70. Escriba los primeros 4 términos y de una ecuación diferencial
caracteristica de los polinomios de Tchebichef de segunda clase Un dados por
h = (1 − x2 )1/2 , s = 1 − x2 , en el intervalo [−1, 1] .
Todos estos polinomios especiales tienen la caracteristica de formar sistemas
completos en el espacio de funciones suaves. En fı́sica y quı́mica, las ecuaciones
186
11. ESPACIOS CON MEDIDA
diferenciales anteriores son muy comunes y como sus soluciones forman sistemas
completos, podemos escribir las funciones suaves como combinación lineal de estas
funciones especiales. Esta proceso es muy conveniente cuando se trabaja con estas
ecuaciones diferenciales. Para ver que estas forma sistemas completos, mostraremos
primero una serie de proposiciones.
Proposición 11.71. Sea s, polinomio de grado dos y h función real, positiva
e integrable. Denotemos por pk a un polinomio arbitrario de grado k, entonces
(11.2)
dm
(hsn pk ) = hsn−m pk+m
dxm
Demostración 11.72. Primero observemos que para n = 1 en (11.1), se
cumple que
ds
1 dh
1 d
(hs) = c1 s
+ c1 ,
P1 (x) = c1
h dx
h dx
dx
de donde que
dh
ds
1
s
.
P1 −
=h
dx
c1
dx
Ahora tomemos la derivada
d
dh
ds
dpk
(hsn pk ) = sn pk
+ hnsn−1 pk
+ hsn
dx
dx dx
dx
ds
1
dpk
n−1
P1 + (n − 1)
= s
h pk
+s
.
c1
dx
dx
Como pk es cualquier polinomio de grado k y por definición P1 es un polinomio
de grado 1 y s es un polinomio de grado 2, se tiene que
d
(hsn pk ) = hsn−1 pk+1 .
dx
Si se sigue derivando la expresión entre parentesis y siguiendo los mismos pasos,
se llega al resultado. Observemos que del resultado anterior se tiene que
1 dn
(hsn ) = cn pn .
h dxn
De aqui es entonces fácil demostrar que
P n = cn
Proposición 11.73. Todas las derivadas
x = a y x = b.
dm
n
dxm (hs )
con m < n, son cero en
Demostración 11.74. Como
dm
(hsn pk )|x=a = h(a)sn−m (a)pk+m = 0.
dxm
Usando las prorposiciones anteriores ya podemos demostrar el teorema principal de esta sección que afirma que todo polinomio deducible de una fórmula de
Rodrigues, forma un conjunto ortonormal completo (una base ortonormal) en el
espacio de Hilbert correspondiente.
5. FUNCIONES ESPECIALES
187
Teorema 11.75. Sea
Pn (x) = cn
1 dn
(hsn ).
h dxn
Entonces los polinomios {Pn }n=1,··· forman un sistema ortonormal completo en
L2 ([a, b]) en el intervalo [a, b], con el producto interno
Z
f (x)g(x)h(x)dx.
(f, g) =
A
Demostración 11.76. Es claro que L ({P0 , · · · , Pn }) = L ({1, x, · · · , xn }) , ya
que ambos forman una base del espacio de polinomios de grado n. Veamos que
{Pn }n=1,··· son ortonormales en L2 ([a, b]) con el producto interno
Z
Pn (x)Pm (x)h(x)dx.
(Pn , Pm ) =
A
Veamos primero que (pn , Pm ) = 0 para todo polinomio pn con n < m. Como
Z
dm
(pn , Pm ) = cm
pn (x) m (hsm )dx
dx
A
integramos por partes m veces, como todas las derivadas de hsn son cero, se tiene
que
Z
dm pn
dx = 0.
(pn , Pm ) = cm
h(x)s(x)m
dxm
A
Ahora bien, si en la integración anterior n = m, obtenemos:
Z
Z
n
n d pn
(11.3)
(pn , Pn ) = cn
h(x)s(x)
dx = cn n! an
h(x)s(x)n dx,
dxn
A
A
donde an es el coeficiente principal del polinomio pn . Podemos escoger
Z
1
= n! an
h(x)s(x)n dx
cn
A
y entonces se tiene que (Pn , Pm ) = δnm . Es decir, basta con definir el producto interno para cada base de polinomios,
para poder escribir la serie de Fourier correspondiente. Demos algunos ejemplos.
2
Ejemplo 11.77. Los polinomios de Hermite Hn estan dados por h = e−x ,
s = −1, cn = 1, en el intervalo (−∞, ∞), su producto interno esta definido por
Z ∞
2
aj = (f, Hj ) =
f (x)Hj (x)e−x dx
−∞
entonces, cualquier función se puede escribir como f =
P∞
i=1
a i Hi .
Ejemplo 11.78. Los polinomios de Legendre Pn estan dados por h = 1, s =
n
1−x2 , cn = (−1) / (2n n!), en el intervalo [−1, 1], su producto interno esta definido
por
Z 1
f (x)Pj (x)dx
aj = (f, Pj ) =
−1
entonces, cualquier función se puede escribir como f =
P∞
i=1
ai Pj
188
11. ESPACIOS CON MEDIDA
Ejemplo 11.79. Los polinomios de Laguerre Ln dados por h = e−x , s = x,
cn = 1, en el intervalo (−∞, ∞), su producto interno esta definido por
Z ∞
f (x)Lj (x)e−x dx
Ln (x) = aj = (f, Lj ) =
−∞
entonces, cualquier función se puede escribir como f =
P∞
i=1
ai L i
Ejercicio 11.80. Defina un producto interno de los polinomios de Tchebichef
de primera clase Tn .
Ejercicio 11.81. Defina un producto interno de los polinomios de Jacobi P.
Ejercicio 11.82. Defina un producto interno de los polinomios de Gegenbauer
Cnλ .
Ejercicio 11.83. Defina un producto interno de los polinomios de Tchebichef
de segunda clase Un .
Todos esto polinomios son solución de alguna ecuación diferencial. La ecuación
diferencial correspondiente se da en el siguiente teorema.
Teorema 11.84. Sea
Pn (x) = cn
entonces
d
dx
1 dn
(hsn ),
h dxn
dPn
sh
+ λn hPn = 0
dx
donde λn es un coeficiente dado por
1 dP1
1
d2 s
λn = −n
+ (n − 1) 2
c1 dx
2
dx
Demostración 11.85. Observemos que
dPn
1 d
1 d
sh
=
(shpn−1 )
h dx
dx
h dx
donde pn−1 es un polinomio de grado n − 1. Por (11.2) se tiene que
1 d
dPn
sh
= pn .
h dx
dx
Entonces podemos escribir esta relación como una combinación lineal de polinomios
Pj , es decir
n
X
dPn
d
λjn Pj .
sh
= −h
(11.4)
dx
dx
j=0
Multiplicamos esta ecuación en ambos lados por Pm , con m < n e integramos
Z
Z
n
n
X
X
d
dPn
Pm
λjn δjm = −λm
λjn
hPj Pm dx = −
sh
dx = −
n
dx
dx
A
A
j=1
j=1
5. FUNCIONES ESPECIALES
189
mientras que si integramos dos veces por partes el lado izquierdo, obtenemos
Z Z
dPn
dPn
d
d
sh
dx = −
Pm sh
dx
Pm
dx
dx
dx
dx
A
A
Z 1 d
d
=
sh Pm Pn hdx = 0,
dx
A h dx
ya que de nuevo llegamos a un polinomio de grado m < n dentro del parentesis
cuadrado. Entonces (11.4) se puede escribir como
dPn
d
sh
= −hλnn Pn := −hλn Pn .
dx
dx
De nuevo calculamos la integral
Z
Pm
A
d
dx
dPn
sh
dx,
dx
pero ahora para m = n, se tiene:
Z
Z
d
dPn
dPn
d2 Pn
d
Pn
sh
dx =
(sh)
+ sh 2 dx
Pn
dx
dx
dx
dx
dx
A
A
Z
2
1
dPn
d Pn
Pn
=
P1 (x)
+ s 2 hdx
c1
dx
dx
A
ya que
1 d
P1 (x) = c1
(hs).
h dx
Ahora supongamos que P1 (x) = l0 +l1 x, s(x) = s0 +s1 x+s2 x2 y Pn (x) = an xn +· · · ,
entonces la integral será
Z
d
Pn
dx
A
dPn
sh
dx
dx
1
n
n
Pn
=
(l1 an nx + · · · ) + (s2 an n (n − 1) x + · · · ) hdx
c1
Z
A
Z
1
l1 n + s2 n (n − 1)
Kxn−1 Pn hdx + · · ·
an xn Pn hdx +
=
c1
A
A
Z
donde K es alguna constante. Sin embargo, como podemos ver en (11.3 ), sólo los
términos de grado n del polinomio pn son diferentes de cero. Entonces
Z
Z
d
dPn
1
Pn
sh
dx =
l1 n + s2 n (n − 1)
Pn Pn hdx
dx
dx
c1
A
A
por lo que
1
d2 s
1 dP1
1
l1 n + s2 n (n − 1) = −n
+ (n − 1) 2
λn = −
c1
c1 dx
2
dx
2
Ejemplo 11.86. Los polinomios de Hermite Hn estan dados por h = e−x ,
s = −1, cn = 1, por lo que los primeros terminos son: H0 = 1, H1 = 2x, etc.
Entonces
dH1
d2 s
= 0.
= 2,
dx
dx2
Se tiene que λn = −2n, la ecuación diferencial será
2
d
−x2 dHn
−e
− 2ne−x Hn = 0
dx
dx
190
11. ESPACIOS CON MEDIDA
o sea
d
d2
Hn − 2x Hn + 2nHn = 0
2
dx
dx
para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación
diferencial de Hermite.
Ejemplo 11.87. Los polinomios de Legendre Pn estan dados por h = 1, s =
1 − x2 , c1 = −1/2, por lo que los primeros terminos son: P0 = 1, P1 = x, etc.
Entonces
dP1
d2 s
= −2.
= 1,
dx
dx2
Se tiene que λn = −n [−2 − (n − 1)] la ecuación diferencial será
dPn
d
+ n (n + 1) Pn = 0
1 − x2
dx
dx
o sea
d2
d
1 − x2
Pn − 2x Pn + n (n + 1) Pn = 0
dx2
dx
para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación
diferencial de Legendre.
Ejemplo 11.88. Los polinomios de Laguerre Ln dados por h = e−x , s = x,
cn = 1, por lo que los primeros terminos son: L0 = 1, L1 = −x + 1, etc. Entonces
dL1
d2 s
= 0.
= −1,
dx
dx2
Se tiene que λn = −n (−1) y la ecuación diferencial de Laguerre será
d
−x dLn
xe
+ ne−x Ln = 0
dx
dx
o sea
d2
d
x 2 Ln + (1 − x)
Ln + nLn = 0
dx
dx
para toda n = 0, 1, · · · . A esta ecuación diferencial se le conoce como la ecuación
diferencial de Laguerre. Suelen definirse también los polinomios asociados
de Laguerre Lm
n por la ecuación
dm
Lm
(x)
=
Ln
n
dxm
las cuales son solución de la ecuación diferencial
d m
d2 m
Ln − (m + 1 − x)
L + (n − m) Lm
n =0
2
dx
dx n
Ejercicio 11.89. Escriba la ecuación diferencial de los polinomios de Tchebichef
de primera clase Tn .
x
Ejercicio 11.90. Escriba la ecuación diferencial de los polinomios de Jacobi
P.
Ejercicio 11.91. Escriba la ecuación diferencial de los polinomios de Gegenbauer Cnλ .
Ejercicio 11.92. Escriba la ecuación diferencial de los polinomios de Tchebichef
de segunda clase Un .
Part 5
ECUACIONES DIFERENCIALES
CHAPTER 12
ECUACIONES DIFERENCIALES ORDINARIAS
1. Métodos de Solución
Las ecuaciones diferenciales son de una importancia escencial en todas las ramas
de las ciencias. La razón es muy simple, todas las leyes fundamentales de las ciencias
tienen que ver con la caracteristica mas importante de la materia: el movimiento.
Las leyes fundamentales de las ciencias son relaciones entre movimientos en el espacio, el tiempo, la temperatura, la presion, los momentos, las luminosidades, etc.,
las cuales se representan con derivadas. Estas relaciones entre el movimiento da
como resultado relaciones entre derivadas, es decir, da como resultado ecuaciones
diferenciales. Toda la materia esta en movimiento, esta es su caracteristica enscencial. Lo estático es solo una aproximación del estado de la materia que en ocaciones
nos da resultados suficientemente buenos para entender algún fenómeno. Pero el
movimiento esta inherente en toda la materia y las relaciones entre este moviminto
nos da las leyes fundamentales de la naturaleza. Es por eso que estas leyes pueden
casi siempre ser representadas por ecuaciones diferenciales. Una solución de estas
ecuaciones diferenciales es un caso particular, una aplicación de la ley que esta
siendo estudiada. En los dos capitulos que siguen estudiaremos las lineas mas elementales para la solución de ecuaciones diferenciales. Vamos a iniciar con las más
sencillas de estas, las ecuaciones diferenciales lineales. Por simplicidad iniciaremos
con ecuaciones diferenciales en donde el argumento, la incognita, solo depende de
una variable. A estas ecuaciones diferenciales se les llama ordinarias.
Definición 12.1. Sea y : ℜ → ℜ tal que y = y(x), función continua y derivable.
Una ecuación diferencial ordinaria es una relación tal que
F = F (x, y, y ′ , y ′′ , · · · ) = f (x), para toda F : ℜ × C ([a, b]) × · · · → ℜ
Notación 12.2. En estos dos capitulos, y ′ representa la derivada de y respecto
de alguna variable, y ′′ representa la segunda derivada de y, etc.
Definición 12.3. Se dice que la ecuación diferencial es lineal, si F es lineal
en todas las entradas que contengan a y y sus derivadas.
Definición 12.4. Se dice que la ecuación diferencial es de orden n, si la maxima derivada de y que aparece en la ecuación diferencial es la n-esima.
Definición 12.5. Se dice que la ecuación diferencial es homogenea, si f (x) =
0.
Ejemplo 12.6. Sea F : ℜ×C ([a, b])×C ([a, b]) → ℜ, tal que y ′ +a(x)y = f (x).
Se llama ecuación lineal ordinaria de primer orden.
Ejemplo 12.7. Sea F : ℜ × C ([a, b]) × C ([a, b]) × C ([a, b]) → ℜ, tal que
y ′′ + a(x)y ′ + b(x)y = f (x). Se llama ecuación lineal ordinaria de segundo
orden, etc.
193
194
12. ECUACIONES DIFERENCIALES ORDINARIAS
Para ecuaciones diferenciales lineales, exiten dos proposiciones muy generales
Proposición 12.8. La suma de dos soluciones de una ecuación diferencial
lineal homogénea, también es solución.
Demostración 12.9. Sea y (n) + an (x)y (n−1) + · · · + a1 (x)y = 0 una ecuación
diferencial lineal homogénea y sean y1 y y2 soluciones. Entonces
(n)
y1
(n)
y2
(n)
implica y1
(n)
+ y2
(n−1)
+ an (x)y1
(n−1)
an (x)y2
+ · · · + a1 (x)y1
=
0
+ · · · + a1 (x)y2 = 0
(n−1)
(n−1)
+ · · · + a1 (x) (y1 + y2 ) = 0 + an (x) y1
+ y2
+
Proposición 12.10. La suma de una solución homogenea de una ecuación
diferenecial lineal cualquiera y la de una solución general de la misma ecuación
diferencial, también es solución.
Demostración 12.11. Sea y (n) + an (x)y (n−1) + · · · + a1 (x)y = f (x) una
ecuación diferencial lineal no-homogénea y sean y1 una solución de la respectiva
ecuación diferencial homogénea y y2 una solución general de la ecuación. Entonces
(n)
y1
(n)
y2
(n)
implica y1
(n)
+ y2
(n−1)
+ an (x)y1
(n−1)
an (x)y2
+ · · · + a1 (x)y1
= 0
+ · · · + a1 (x)y2 = f (x)
(n−1)
(n−1)
+ · · · + a1 (x) (y1 + y2 ) = f (x) + an (x) y1
+ y2
+
Otra proposición que puede ser útil es la siguiente:
Proposición 12.12. Toda ecuación diferencial ordinaria lineal de orden n
puede ser escrita como un sistema de dos ecuaciones diferenciales de orden n − 1.
Demostración 12.13. Sea y (n) +an (x)y (n−1) +· · ·+a1 (x)y = f (x). Definamos
z = y ′ . Entonces la ecuación se transforma en z (n−1) +an (x)z (n−2) +· · ·+a1 (x)y =
f (x). Corolario 12.14. Toda ecuación diferencial ordinaria lineal de orden n puede
ser escrita como un sistema de n ecuaciones diferenciales de orden 1.
Demostración 12.15. Definamos z1 = y ′ , z2 = y ′′ = z1′ , · · · , zn−1 = y (n−1) =
′
Entonces la ecuación diferencial se transforma en zn−1
+an (x)zn−1 +an−1 (x)zn−2 +
· · · + a1 (x)y = f (x). ′
zn−2
.
La soluciones de algunas ecuaciones diferenciales ordinarias puden ser encotradas utilizando mt́odos sencillos. El método mas común es dando un “ansatz”,
esto es, proponiendo una función que nosotros creemos es muy parecida a la solución
que queremos encontrar, es un poco adivinando el resultado. Vamos a iniciar con
el caso mas simple.
Proposición 12.16. Sea y ′ + a(x)y = f (x) una ecuación lineal ordinaria de
primer orden. Su solución esta dada por
Z x
exp(A(z))f (z)dz
(12.1)
y(x) = exp(−A(x))
x0
donde A′ = a(x).
1. MÉTODOS DE SOLUCIÓN
195
Demostración 12.17. La manera mas simple de demostrar que (12.1) es la
solución de la ecuación diferencial, es subtituyendo la solución en la ecuación. Otra
forma es como sigue. Reescribamos la ecuación diferencial como y ′ + A′ y = f (x)
con A′ = a(x) y multipliquemos la ecuación completa por exp(A). Obtenemos
′
exp(A)y ′ + exp(A)A′ y − exp(A)f (x) R= (exp(A)y) − exp(A)f (x) = 0
x
De aqui obetenemos que exp(A)y = x0 exp(A(z))f (z)dz, de donde se obtiene
el resultado. A la función exp(A) se le suele llamar factor integrante, ya que gracias a
él, una parte de la ecuación diferencial se puede integrar. Entonces la solución
de la ecuacion diferencial linea ordinaria de primer orden se puede llevar a la resolución de una integral o también se dice, se reduce a cuadraturas. El problema
es ahora resolver la integral de la solución, lo cual no siempre es posible hacerlo
analiticamente.
Ejemplo 12.18. Sea y ′ + x1 y − a0 x5 = 0. Entonces A′ = x1 , es decir A =
ln(x).
Se tiene que exp(A)
R
= x, por lo que la solución de la ecuación es y(x) =
a0
1 x
5
7
zz
dz
=
x
+
c
x x0
7x
Ejercicio 12.19. Resolver :
1) y ′ + x1 y − a0 exp(x) = 0.
2) y ′ + x1 y − a0 sin(x) = 0.
3) y ′ + xy − a0 x = 0.
4) y ′ + xy − a0 x1 = 0.
5) y ′ + ln(x)y − a0 x = 0.
La siguiente ecuación en complejidad es la ecuación lineal de cualquier orden
en coeficientes constantes.
Proposición 12.20. Sea y (n) + an y (n−1) + · · · + a1 y = 0 una ecuación lineal
ordinaria homogénea de orden n y aj ∈ C, con j = 1, · · · , n. Su solución esta dada
por
y(x) = cn exp(rn x) + · · · + c1 exp(r1 x)
donde r1 , · · · , rn son las raices distintas del polinomio caracteristico de la
ecuación diferencial dado por rn + an rn−1 + · · · + a1 r = 0, o
y(x) = ci xi + · · · c1 x + c0 exp(rj x) + · · · + c1 exp(r1 x)
para cada raiz de multiplicidad i − 1 del polinomio caracteristico.
Demostración 12.21. Lo que en realidad nos dice el teorema es que un ansatz
conveniente para resolver estas ecuaciones diferenciales es y(x) = c exp(rx), donde
c y r son constantes a determinar. Subtituimos este ansatz en la ecuación diferencial y obtenemos presisamente el polinomio caracteristico.
En el caso de que
una raiz se repita i veces, tenemos que ci xi + · · · c1 x + c exp(rj x) es también una
solución de la ecuación diferencial. La solución mas general, sera la suma de todas
las soluciones. Ejemplo 12.22. Sea y ′′ + 2y ′ + y = 0. El ansatz conveniente es y(x) = c exp(rx). Substituimos en la ecuación diferencial para obtener: c exp(rx) r2 + 2r + 1 =
2
0, lo que implica que r2 + 1 = 0. Las raices del polinomio caracteristico son degeneradas (repetidas) y son r1,2 = −1. Se sigue que las soluciones de la ecuación
diferencial son:
196
12. ECUACIONES DIFERENCIALES ORDINARIAS
y1 = c1 x exp(−x) y y2 = c0 exp(−x).
La solución general es entonces dada por:
y(x) = (c1 x + c0 ) exp(−x)
Ejemplo 12.23. La ecuación del oscilador armónico es
y ′′ + ω 2 y = 0.
(12.2)
El√polinomio caracteristico es r2 + ω 2 = 0. Este polinomio tiene 2 raices, r =
± −ω 2 = ±iω. Si ω es real, la solución de la ecuación diferencial es
y(x) =
=
=
c1 exp(iωx) + c2 exp(−iωx)
c1 (cos (ωx) + i sin (ωx)) + c2 (cos (ωx) − i sin (ωx))
(c1 + c2 ) cos (ωx) + i (c1 − c2 ) sin (ωx)
=
A1 cos (ωx) + A2 sin (ωx)
=
=
A sin (δ) cos (ωx) + A cos (δ) sin (ωx)
A sin (ωx + δ)
=
=
B cos (σ) cos (ωx) − B sin (σ) sin (ωx)
B cos (ωx + σ)
donde c1 + c2 = A1 = A sin (δ) = B cos (σ) y i (c1 − c2 ) = A2 = A cos (δ) =
B sin (σ). Esta solución es una función oscilante. Si ω es imaginaria, la solución
sera
y(x) = c1 exp(ωx) + c2 exp(−ωx)
que es una función monotona. Si ω es compleja, la solución es una mezcla de las
dos anteriores. Vean la figura 1.
Figure 1.
La gráfica de las soluciones de la ecuación de
onda. La solución graficada es exp(ix) + exp(−ix) (lnea continua),
exp(x)+exp(−x) (lnea punteada) y exp((0.3+i)x)+exp((0.3−i)x)
(lnea rayada). Observen como la primera solución es periódica, a
segunda es monótona y la tercera es mixta.
1. MÉTODOS DE SOLUCIÓN
197
Ejercicio 12.24. La ecuación del oscilador armónico amortiguado es y ′′ +
hy + ω 2 y = 0. Encontrar todas las soluciones de esta ecuación. Hacer un análisis
del comportamiento de las soluciones.
′
Ejercicio 12.25. Resuelva la ecuación del oscilador armonico para las condiciones iniciales y(0) = 0 , y ′ (0) = 1 y para y(0) = π, y ′ (0) = −2 y grafique las
soluciones para ω = 1.
Ejercicio 12.26. Resuelva la ecuación del oscilador armonico amortiguado
para las condiciones iniciales y(0) = 0, y ′ (0) = 1 y para y(0) = π, y ′ (0) = −2 y
con ω = 1, grafique las soluciones para h = 10, 1, 0.1 y 0.01. Explique el comportamiento.
Para el caso de las ecuaciones de coeficientes constantes no homogeneas, existen
varios métodos para encontrar la solución. Uno método muy usado es el de proponer
un ansatz conveniente. Vamos a dar un ejemplo de como funciona este método.
Ejemplo 12.27. Tomemos la ecuación del oscilador armónico reforzado, es
decir y ′′ + ω 2 y = a sin(bx). Para encontrar las soluciones de esta ecuación, propongamos una solución (un ansatz) del tipo y(x) = A sin(Ωx). Si substituimos en
la ecuación diferencial, obtenemos
−AΩ2 sin(Ωx) + ω 2 A sin(Ωx) = a sin(bx).
Lo primero que observamos es que si hacemos Ω = b, la ecuación se reduce a una
ecuación algebraica −AΩ2 + ω 2 A = a, cuya solución es A = a/ ω 2 − Ω2 . Por
lo que una solución
de la ecuación del oscilador armónico reforzado sera y(x) =
a/ ω 2 − Ω2 sin(bx). Por la proposición 12.10 se tiene que la solución
general de la
ecuación diferencial es y(x) = c1 sin(ωx) + c2 cos(ωx) + a/ ω 2 − b2 sin(bx). Vean
la figura 2.
Ejemplo 12.28. Se tiene una situación equivalente si se quiere resolver la
ecuación diferencial y ′′ + ω 2 y = a exp(bx). Ahora el ansatz conveniente es y(x) =
A exp(Ωx). Haciendo lo mismo que en el ejemplo anterior
se obtiene que la solución
general es y(x) = c1 sin(ωx) + c2 cos(ωx) + a/ ω 2 + b2 exp(bx)
Ejercicio 12.29. Resolver las siguientes ecuaciones diferenciales no homogeneas, usando un ansatz conveniente.
1) y ′′ + ω 2 y = a1 sin(b1 x) + a2 exp(b2 x)
2) y ′′ + hy ′ + ω 2 y = a1 sin(b1 x)
3) y ′′ + hy ′ + ω 2 y = a1 sin(b1 x) + a2 exp(b2 x)
4) y ′′ + hy ′ + ω 2 y = a1 x
5) y ′′ + hy ′ + ω 2 y = a1 x + a2 exp(b2 x)
Sin embargo, en ocaciones resulta practicamente imposible dar un ansatz conveniente, entonces la ecuación diferencial de segundo orden también se puede reducir
a cuadraturas. El método es el siguiente
Algoritmo 12.30. Sea la ecuación diferencial
(12.3)
y ′′ + hy ′ + ω 2 y = f (x)
y yhom (x) = c1 y1 (x) + c2 y2 (x) la solución general de la ecuación homogenea correspondiente. Entonces, la solución no homogenea de (12.3) se puede buscar,
198
12. ECUACIONES DIFERENCIALES ORDINARIAS
Figure 2. Soluciones de la ecuación del oscilador armónico reforzado. La soluciones graficadas son: cos(x) − 1/(1 − b2 ) sin(bx),
donde hemos hecho ω = 1 y a = 1. Las gráficas corresponden a
b = 1.1, 1.01 y 1.001, de la más pequeña a la más grande. Observen
como la solución se hace grande conforme nos acercamos a b = 1,
que es el valor de la resonancia, es decir, cuando la frecuencia del
reforzamiento se acerca a la frecuencia de la solución homogénea.
suponiendo que c1 y c2 son funciones de x. Es decir yN o hom (x) = c1 (x)y1 (x) +
c2 (x)y2 (x). Si subtituimos este ansatz en (12.3), obtenemos
yN o hom (x)
=
c1 (x)y1 (x) + c2 (x)y2 (x)
′
yN
o hom (x)
′′
yN o hom (x)
=
=
c1 (x)y1′ (x) + c2 (x)y2′ (x) + c′1 (x)y1 (x) + c′2 (x)y2 (x).
c1 (x)y1′′ (x) + c2 (x)y2′′ (x) + c′1 (x)y1′ (x) + c′2 (x)y2′ (x) +
c′1 (x)y1′ (x) + c′2 (x)y2′ (x) + c′′1 (x)y1 (x) + c′′2 (x)y2 (x).
de donde obtenemos que
′
2
′′
yN
o hom + hyN o hom + ω yN o hom =
h (c′1 (x)y1 (x) + c′2 (x)y2 (x)) + 2 (c′1 (x)y1′ (x) + c′2 (x)y2′ (x)) + c′′1 (x)y1 (x) + c′′2 (x)y2 (x)
(12.4)
= f (x)
Ahora supongamos que c′1 (x)y1 (x) + c′2 (x)y2 (x) = 0, lo que implica que también
′
la derivada de este termino debe ser cero, es decir (c′1 (x)y1 (x) + c′2 (x)y2 (x)) =
′
′
′
′
′′
′′
c1 (x)y1 (x)+ c2 (x)y2 (x)+ c1 (x)y1 (x)+ c2 (x)y2 (x) = 0. Si subtituimos este resultado
en la ecuación diferencial (12.4), obetenemos que
c′1 (x)y1′ (x) + c′2 (x)y2′ (x) = f (x)
Quiere decir que si encotramos dos funciones c1 (x) y c2 (x) que cumplan
c′1 (x)y1 (x) + c′2 (x)y2 (x)
= 0
c′1 (x)y1′ (x)
= f (x)
+
c′2 (x)y2′ (x)
2. TRANSFORMADAS INTEGRALES
199
obtendremos una solución no homogenea. Podemos resolver el sistema para las
funciones c1 (x) y c2 (x) usando el método de determinantes. El resultado es
y2 (x)f (x)
W (y1 , y2 )
y1 (x)f (x)
c′2 (x) =
W (y1 , y2 )
donde hemos definido el determinante del sistema como
c′1 (x)
=
−
W (y1 , y2 ) = y1 y2′ − y2 y1′
con lo que ya podemos escribir la solución particular de la ecuación diferencial en
forma de cuadraturas. Esta es
Z x
(y1 (t)y2 (x) − y2 (t)y1 (x))
yN o hom (x) =
f (t)dt
W (y1 , y2 ) (t)
x0
Por tanto, la solución general sera y(x) = c1 y1 (x) + c2 y2 (x) + yN o hom (x)
Notación 12.31. Al determinante W (y1 , y2 ) = y1 y2′ − y2 y1′ se le llama Wronskiano
Ejercicio 12.32. Resuelva los Ejercicios 12.29 usando el algoritmo anterior.
Las ecuaciones diferenciales de segundo orden son especialmente interesantes
ya que en la mayoria de las teorı́as fı́sicas, sus ecuaciones de campo son de segundo
orden. Las ecuaciones de segundo orden mas comunes en todos los campos de las
ciencias son las ecuaciones con coeficientes variables. El método de solución es
variado, no hay un método único para todas. Vamos a presentar algunos de los
métodos mas utilizados.
2. Transformadas Integrales
Las transformadas integrales son un mecanismo para simplificar ecuaciones
diferenciales. La idea es llevar a la ecuación diferencial a otro espacio en donde se
pueda resolver y luego con la transformación inversa regresar al espacio original.
Este último paso no siempre es simple o en ocaciones sucede que la ecuación diferencial es mas complicada en el espacio de llegada. Por eso no hay una receta universal
para todas las ecuaciones y por eso existen varias trasformaciones, cada una adecuada para algunas de estas. Vamos a inicar con la definición de transformación
integral.
Definición 12.33. Sean f : C → C y g : C → C funciones y E un espacio
Rb
de Hilbert con producto interno (f, g) = a f ḡ dx con xs ∈ E. La transformada
integral de una ecuación diferencial lineal de segundo orden
eq = y ′′ + a(x)y ′ + ω(x)2 y − f (x)
respecto a xs , se define como F (s) = (eq, xs ).
El objetivo de esta transformada es el siguiente. Ya que
(yxs )′ = yx′s + y ′ xs ,
el producto interno de y ′ con xs se puede escribir como:
Z b
Z b
Z b
b
′
′
′
(y , xs ) =
y x̄s dx =
(y x̄s ) dx −
y x̄′s dx = y x̄s |a − (y, x̄′s ) .
a
a
a
200
12. ECUACIONES DIFERENCIALES ORDINARIAS
Entonces conviene escoger una función del espacio de Hilbert para la cual también
conocemos el producto (y, x′s ). Si esto es posible, en ocaciones se puede encotrar
una solución de la ecuación diferencial. Veamos algunos ejemplos.
Ejemplo 12.34. ER un espacio de Hilbert real con xs = exp(−sx) ∈ E y pro∞
ducto interno (f, g) = 0 f gdx. Para esta función se cumple que
Z ∞
′
y (exp(−sx)) dx = −s (y, xs ) .
(y, x′s ) =
0
De aquı́ se sigue
Z
′
(y , xs ) =
∞
0
∞
y ′ exp(−sx)dx = y exp(−sx)|0 + s (y, xs ) = sF (s) − y(0).
Análogamente se tiene que
(y ′′ , xs ) = s2 F (s) − y ′ (0) − sy(0).
A esta transformada integral se le llama la transformada de Laplace.
Ejercicio 12.35. Demuestre que para la trasformada de Laplace, (y ′′ , xs ) =
s F (s) − y ′ (0) − sy(0).
2
Ejemplo 12.36. Sea E el espacio de Hilbert del conjunto de las funciones
Rl
periódicas en [0, 2π] con producto interno (f, g) = 0 f gdx. Como se vió en el
capı́tulo de análisis, ejemplo 10.25, un sistema ortonormal completo de este espacio
es
1
1
1
{xk }k∈I = √ , √ sin(kt), √ cos(kt)
π
π
2π
k=1,···
donde k = nπ/l y los coeficientes de Fourier estan dados por
(
R 2π
(f, cos(kt)) = 0 f cos(kt)dt,
R 2π
(f, xk )k∈I =
∈E
(f, sin(kt)) = 0 f sin(kt)dt,
Podemos clasificar a estas funciones como las funcione pares {cos(kt)}k∈I =
{xpk } y las funciones impares {sin(kt)}k∈I = {xik }. Para estas funciones se tiene:
Z 2π
1
′
′
y (cos(kt)) dt = −k y, xik .
y, (xpk ) = √
π 0
Entonces se sigue
(y ′ , xpk ) = −k (y, xk ) − (y(0) − y(l) cos(nπ))
mientras que para las funciones impares se tiene
(y ′ , xik ) = −k y, xik
A esta transformada se le llama transformada finita de Fourier.
Ejercicio 12.37. Demuestren que para la transformada finita de Fourier se
siguen las identidades:
(y ′′ , xpk ) =
(y ′′ , xpk ) =
−k 2 (y, xpk ) − (y ′ (0) − y ′ (l) cos(nπ))
k 2 (y, xpk ) + k (y(0) − y(l) cos(nπ))
2. TRANSFORMADAS INTEGRALES
201
Ejemplo 12.38. Sea RE un espacio de Hilbert real con xk = exp(ikx) ∈ E y
∞
producto interno (f, g) = −∞ f ḡdx. Análogamente a la transformada de Laplace,
para esta función se cumple
Z ∞
′
(y, x′k ) =
y (exp(−ikx)) dx = −ik (y, xk ) .
−∞
De donde se sigue que
Z ∞
′
(y , xk ) =
y ′ exp(−ikx)dx = y exp(−ikx)|∞
−∞ + ik (y, xk ) = ikF (k),
−∞
para toda función tal que y(∞) = y(−∞) = 0. Estas condiciones son tı́picas en una
multitud de problemas fı́sicos, quı́micos y de ingenierı́a. Análogamente se tiene:
(y ′′ , xk ) = −k 2 F (k).
A esta transformada integral se le llama la transformada continua de Fourier.
Estas transformadas integrales tienen varias propiedades. Algunas de éstas son
Teorema 12.39 (Transformada de Laplace). Sea E espacio de Hilbert y y ∈ E,
cuya transformada de Laplace es F (s) = (y, xs ). Entonces
1) F es lineal
2) La transformada de exp(ax)y(x) es
3) Si f (x) =
(exp(ax)y(x), xs ) = F (s − a)
y(x − a) para
0
para
x>a
, la transformada de f es
x<a
(f, xs ) = exp(−as)F (s)
4) La transformada de y(ax) es
(y(ax), xs ) =
5) La transformada de
Rx
1 s
F
a
a
y(x)dx es
0
Z x
1
y(x)dx, xs = F (s)
s
0
6) La transformada de xn y(x) es
n
(xn y(x), xs ) = (−1)
dn
F (s)
dsn
7) La transformada de y(x)/x es
Z ∞
y(x)
F (t)dt
, xs =
x
s
Ejercicio 12.40. Demostrar el Teorema anterior.
Con la ayuda de este teorema es posible encotrar la transformada de Laplace
de un sinnumero de funciones. Particularmente los incisos 6) y 7) del teorema nos
permite encontrar la trasformada de Laplace de funciones multiplicadas por un
exponente de x.
202
12. ECUACIONES DIFERENCIALES ORDINARIAS
Ejemplo 12.41. Tomemos la ecuación diferencial de Bessel
x2 y ′′ + xy ′ + x2 y = 0.
Dado que (y ′ , xs ) = sF (s) − y(0), se tiene que
(xy ′ , xs ) = (−1)
d
(sF (s) − y(0)) .
ds
Análogamente
2
2 d
s2 F (s) − sy(0) − y ′ (0) .
x2 y ′′ , xs = (−1)
ds2
Ası́, la transformada de Laplace de la ecuación diferencial de Bessel es
y ′′ + xy ′ + x2 y, xs
=
s2 F ′′ + 4sF ′ + 2F − (sF ′ + F ) + F ′′
s2 + 1 F ′′ + 3sF ′ + F
=
=
0
La solución de esta ecuación diferencial es
1
.
F (s) = √
s2 + 1
En otras palabras, usando la propidad 4) del teorema de la transformada de Laplace,
se tiene que para la función de Bessel
1
(J0 (ax), xs ) = √
s2 + a 2
Como vemos, al transformar una ecuación diferencial al espacio de las funciones
de Laplace, generalmente se obtiene otra ecuación diferencial. En ocaciones mas
simple de resolver, pero no siempre. Es por eso que existen en general varios
métodos de sulución. De hecho, uno de los procesos mas complicados de llevar
a cabo al resolver una ecuación diferencial con la transformada de Laplace, es
encontrar la transformada inversa.
Ejercicio 12.42. Encuentre la transformada de Laplace de las siguientes funciones
1) y(x) = 1
2) y(x) = xn
3) y(x) = exp(ax)
4) y(x) = sin(ax)
5) y(x) = cos(ax)
6) y(x) = sinh(ax)
7) y(x) = cosh(ax)
Una situación análoga sucede con la transformada de Fourier. Daremos un
ejemplo:
1 para −a < x < a
Ejemplo 12.43. Sea f (x) =
.
0
de otra forma
2. TRANSFORMADAS INTEGRALES
203
La transformación de Fourier de f (x) será
Z ∞
(f, xk ) =
f (x) exp(−ikx)dx
−∞
a
=
Z
−a
=
exp(−ikx)dx =
2
sin(ka).
k
a
1
exp(−ikx)
−ik
−a
En este punto es interesante notar que la función f (x) es una linea paralela que
pasa por uno y que va de −a a a, mientras que su transformada es una función
sinosoidal que decae, vean la figura 3.
Figure 3. La transformada de Fourier de la función f = 1, para
el intervalo [−a, a] y cero de lo contrario. Mientras que la función
es constante, su transformada de Fourier nos da una función oscilante. Este comportamiento se repite constantemente en esta
transformada y se utiliza mucho para hacer análisis de señales.
sirve
Teorema 12.44 (Transformada de Fourier). Sea E espacio de Hilbert y y ∈ E,
cuya transformada de Fourier es F (k) = (y, xk ). Entonces
1) F es lineal
2) La transformada de exp(iax)y(bx) es
1
k−a
(exp(iax)y(bx), xk ) = F
b
b
204
12. ECUACIONES DIFERENCIALES ORDINARIAS
3) La transformada de xn y(x) es
(xn y(x), xk ) = in
dn
F (k)
dk n
Ejercicio 12.45. Demostrar el teorema anterior.
Lo que vamos a ver a continuación es un teorema que nos dice que pasa con la
transformada del producto de dos funciones. Este teorema es de gran importancia
y aplica en las transformaciones de Fourier, se llama el teorema de la convolución.
Para introducir el teorema, primero vamos a definir que es la convolución
Definición 12.46. San E espacio de Hilbert y Rf : C → C y g : C → C funciones.
∞
La convolución de f con g es la integral f ∗ g = −∞ f (u)g(x − u)du
Entonces se sigue el teorema:
Teorema 12.47 (de Convolución). San E espacio de Hilbert y f : C → C y
g : C → C funciones. Sea F (k) y G(k) sus respectivas transformadas de Fourier.
Entonces, la transformada de Fourier de la convolución de f y g, es el producto de
las tranformadas de f y g, es decir (f ∗ g, xk ) = (f, xk ) (g, xk )
R∞
R∞ R∞
Demostración 12.48. −∞ f ∗g exp(−ikx)dx = −∞ −∞ f (u)g(x−u) exp(−ikx)dudx.
Hacemos entonces v = x − u para obtener
Z ∞Z ∞
Z ∞
f (u)g(v) exp(−ik (u + v))dudv
f ∗ g exp(−ikx)dx =
−∞ −∞
−∞
Z ∞
Z ∞
g(v) exp(−ikv)dv
f (u) exp(−iku)du
=
−∞
−∞
3. Método de Series
El método de series o de polinomios es muy usado para resolver ecuaciones difirenciales lineales de segundo orden con coeficientes variables. Consiste en proponer
una solución en series, es decir, usando el hecho de que (P, ·) el conjunto de los polinomios de grado arbitrario con su producto canónico y {pn }n=0,1,··· = {1, x, x2 , · · · }
es un sistema completo en Cℜ . Entonces, toda función suave, solución de una
ecuación diferencial se puede escribir como
f (x) =
∞
X
n=0
n
n
(p · x ) x =
∞
X
an xn .
n=0
La serie se propone como un ansatz para resolver la ecuación diferencial y se encuetran los coeficientes an del polinomio. Veamos esto con unos ejemplos.
Ejemplo 12.49. Tomemos de nuevo la ecuaciónPdiferencial de Bessel x2 y ′′ +
∞
xy + x2 y = 0. Entonces usemos el ansatz y(x) = n=0 an xn . Si subtituimos el
′
3. MÉTODO DE SERIES
205
ansatz en la ecuación, obtenemos
x2
∞
X
n=0
n(n − 1)an xn−2 + x
∞
X
n=0
∞
X
nan xn−1 + x2
n=0
∞
X
an xn
=
n=0
n(n − 1)an xn + nan xn + an xn+2
∞
X
n2 an xn + an xn+2
n=0
=
=
0
Si escribimos los primeros términos de esta serie, vemos que

0 + a0 x2 +




a1 x + a1 x3 +



2
4
P∞
4a
2 x + a2 x +
n
n
n+2
=
3
5
n=0 n(n − 1)an x + nan x + an x
9a
x
+
a
x
+

3
3


4
6

16a
x
+
a
x
+

4
4


5
7
25a5 x + a5 x +
n=0
n=1
n=2
=
n=3
n=4
n=5
a1 x + (a0 + 4a2 ) x2 + (a1 + 9a3 ) x3 + (a2 + 16a4 ) x4 + (a3 + 25a5 ) x5 + · · · = 0
Como el espacio de polinomios (P, ·) es l.i. , los coeficientes de la suma deben de
ser igual a cero para cada n. Lo primero que observamos es que a1 = 0. Pero
despues se tiene que:
an + (n + 2)2 an+2 = 0
lo que implica la relación
an+2 = −
an
2
(n + 2)
Esta realción se llama la relación de recurrencia de la ecuación diferencial, ya
que conociendo los coeficientes a0 y a1 , es posible conocer todos los demas. El
polinomio queda entonces como
y(x) = a0
∞
X
(−1)n
2n
2x
2n (n!)
n=0 2
A estos polinomios se les llama Polinomios de Bessel J0 .
Ejemplo 12.50. Tomemos de nuevo la ecuación diferencial de Bessel
completa
x2 y ′′ + xy ′ + x2 − k 2 y = 0.
Para resolver esta ecuación conviene tomar
P∞ el ansatz del polinomio un poco modificado. Para este caso tomemos y(x) = n=0 an xn+l . Subtituyendo este ansatz en
la ecuación diferencial se obtiene,
2
x
∞
X
n=0
n+l−2
(n + l) (n + l − 1)an x
∞
X
n=0
+x
∞
X
n=0
n+l−1
(n + l) an x
2
+ x −k
2
∞
X
an xn+l
=
n=0
(n + l) (n + l − 1) + (n + l) − k 2 an xn+l + an xn+l+2
= 0
206
12. ECUACIONES DIFERENCIALES ORDINARIAS
y hagamos el mismo análisis que hicimos en el caso anterior,
∞
X
n=0
=
(n + l) (n + l − 1) + (n + l) − k 2 an xn+l + an xn+l+2

l(l − 1) + l − k 2 a0 xl + a0 xl+2 


(1 + l) (1 + l − 1) + (1 + l) − k 2 a1 x1+l + a1 x1+l+2
 (2 + l) (2 + l − 1) + (2 + l) − k 2 a2 x2+l + a2 x2+l+2


(3 + l) (3 + l − 1) + (3 + l) − k 2 a3 x3+l + a3 x3+l+2
n=0
n=1
n=2
n=3
y hacemos la comparación de los coeficientes tal que se obtiene para el exponente
de x mas bajo
l 2 − k 2 a0 = 0
lo que implica l = ±k. El siguiente exponente implica
(1 + l) (1 + l − 1) + (1 + l) − k 2 a1 = 0
De nuevo, como l = ±k, esta identidad se cumple solo si a1 = 0. Para el resto de
los coeficientes se cumple la realción de recurrecia
an
an+2 = −
(n + 2) (n + 2 + 2k)
por lo que los polinomios de Bessel completos estan dados por:
Jk (x) =
∞
X
n=0
n
(−1)
x2n+k
+ k)!
22n n! (n
la solución de la ecuación de Bessel es entonces y(x) = a0 Jk + a′0 J−k , vean la figura
4.
Figure 4. . Funciones de Bessel para diferentes valores de k.
De la misma forma se pueden resolver una gran cantidad de ecuaciones diferenciales con coeficientes variables. Algunas de ellas quedaran como ejercicios.
3. MÉTODO DE SERIES
207
Ejercicio 12.51. Usando el ansatz polinomial, resuelva la ecuación diferencial
1) De Hermite y ′′ − 2xy ′ + 2ky = 0 m2
y=0
2) De Legendre 1 − x2 y ′′ − 2xy ′ + l (l + 1) − 1−x
2
3) De Laguerre xy ′′ + (1 − x) y ′ + ky = 0
En las fuguras 5, 6, 7 se muestran los polinomios de Hermite, Legendre y
Laguerre respectivamente para diferentes valores de sus parametros.
Figure 5. Polinomios de Hermite para diferentes valores de k.
Figure 6.
con m = 0.
Polinomios de Legendre para diferentes valores de l
208
12. ECUACIONES DIFERENCIALES ORDINARIAS
Figure 7. Polinomios de Laguerre para diferentes valores de k.
CHAPTER 13
ECUACIONES DIFERENCIALES PARCIALES
1. Métodos de Solución
Las ecuaciones fundamentales de la fı́sica, la quı́mica y la ingenierı́a son ecuaciones diferenciales parciales. En esta parte vamos a ocuparnos de las ecuaciones
mas usadas en la literatura de las ciencias fı́sicas, que son a su vez muy representativas de las ecuaciones diferenciales parciales lineales en general. Esta sección
es tal vez la mas limitada de este curso, puesto que la cantidad de material sobre
este tema es muy basto. Aqui nos limitaremos a utilizar algunos métodos para la
resolución de estas ecuaciones diferenciales en los casos mas simples y comunes que
hay. Las ecuaciones diferenciales que vamos a tratar en esta parte son:
: 1) La ecuación de onda
(13.1)
u = ∇2 u −
1 ∂2u
= d(x, y, z)
v 2 ∂t2
: 2) La ecuación de Difusión
∂u
(13.2)
= ∇ · (D∇u)
∂t
: 3) La ecuación de Poisson
(13.3)
∇2 u = d(x, y, z)
donde u, d y D son funciones tales que u = u(x, y, z, t), d = d(x, y, z, t) y
la función D = D(x, y, z). A la función d se le llama la fuente.
Notación 13.1. El operador nabla se define como
∂ ∂ ∂
(13.4)
∇=
,
,
∂x ∂y ∂z
y el operador
= ∇2 − 1/v 2 ∂ 2 /∂t2
es el operador d’Alabertiano
Notación 13.2. Al operador ∇2 = ∇ · ∇ se le conoce como Laplaciano.
Notación 13.3. En general denotaremos a los operadores diferenciales por L,
de tal forma que si por ejemplo L = , la ecuación de onda se escribe como Lu = d,
o si L = ∇2 , la ecuación de Poisson se escribe como Lu = d, etc.
Notación 13.4. A la ecuación homogenea de Poisson se le conoce como la
ecuación de Laplace.
Notación 13.5. Se suele clasificar a las ecuaciones diferenciales como ecuaciones hiperbolicas, como la ecuación de onda, ecuaciones parabolicas, como
la ecuación de difusión y ecuaciones elipticas, como la ecuación de Poisson.
209
210
13. ECUACIONES DIFERENCIALES PARCIALES
En la mayoria de los casos, es conveniente utilizar las simetrias del sistema
para resolver la ecuación diferencial en cuestion. Para utilizar las simetrias es
conveniente tener en mente las forma del operador nabla y del operador laplaciano
∇2 en diferentes sistemas coordenados. Uno de los más usados son las coordenadas
esféricas, en donde
x =
r sin(θ) cos(ϕ)
y
z
=
=
∇2
=
r sin(θ) sin(ϕ)
r cos(θ)
∂2
1
∂
1
∂
1 ∂
2 ∂
r
+
sin(θ)
+
r2 ∂r
∂r
r2 sin(θ) ∂θ
∂θ
r2 sin2 (θ) ∂ϕ2
y las coordenadas cilindricas, en donde
x =
ρ cos(θ)
y
z
=
=
∇2
=
ρ sin(θ)
z
∂
1 ∂2
1 ∂
∂2
ρ
+ 2 2+ 2
ρ ∂ρ
∂ρ
ρ ∂θ
∂z
Las tres ecuaciones diferenciales (13.1-13.3) tienen gran importancia en fı́sica
y quı́mica, aunque aquı́ no nos ocuparemos de esto, solo de sus soluciones. Existen
también una gran cantidad de metodos de solucion para estas ecuaciones. En este
capı́tulo nosotros nos limitaremos a tres metodos: separación de variables, desarrollos de Fourier y funcı́on de Green. Vamos a iniciar con el metodo de separación
de variables.
2. Separación de Variables
El metodo de separación de variables consiste en proponer un ansatz en el que
la función u se puede escribir como una función que depende del tiempo y otras
que dependen de las demas variables, es decir, como
u = X(x)Y (y)Z(z)T (t)
Ejemplo 13.6. Supongamos una cuerda de guitarra estirada y que se suelta
para sonar. La ecuación de la cuerda es la ecuación de onda sin fuente en una
dimensión, digamos x. La ecuación de onda es
1 ∂2u
∂ 2u
−
=0
∂x2
v 2 ∂t2
Ahora tomemos el ansatz u = X(x)T (t) y substituimos en la ecuación de onda
(13.5)
∂2X
1 ∂2T
−
X
=0
∂x2
v 2 ∂t2
Si dividimos entre T X toda la ecuación, nos queda una parte que solo depende de
x y otra que solo depende de t. Como x y t son variables independientes, se sigue
que
1 ∂2T
1 ∂2X
= 2
= −c
2
X ∂x
v T ∂t2
T
2. SEPARACIÓN DE VARIABLES
211
donde c es una constante arbitraria. La ecuación de onda se separa en dos ecuaciones diferenciales como la ecuación del oscilador armónico
d2 X
+ cX = 0
dx2
d2 T
+ cv 2 T = 0
dt2
√
√
cuyas soluciones son X(x) = c1 sin( c (x + x0 )) y T (x) = c2 sin( cv 2 (t + t0 )). La
solución de la ecuación de onda es entonces
√
√
u(x, t) = c1 sin c (x + x0 ) sin( cv 2 (t + t0 )).
Vamos a suponer que al tiempo t = 0, el guitarrista pulsa la cuerda una elongación pequeña l. Si la cuerda tiene una longitud L, se tiene que sin(0) = sin(x =
L) = 0. Esto quiere decir que al timpo t = 0, la cuerda tiene una elongación tipo
sin(x), con los extremos
√ fijos y puestos en x = 0 y x = L. Es decir, u(x, 0) =
√
x
))
sin(
cv 2 t0 ) = l sin(xπ/L). Esto implica que c1 = l, x0 = 0,
c1 sin( c (x +
√ 0
√
2
c = π/L y cv t0 = π/2, es decir c = 1, t0 = L/ (2v). La solución será entonces
x
vπ
L
u(x, t) = l sin π
&
,
sin
t+
L
L
2v
vean la figura 1. Si en vez de una cuerda de guitarra se tuviera una cuerda de
violin,√el arco en la cuerda causa no una elongación, sino una vibración. En este
caso, c no seria igual a π/L, sino estaria determinado por el número de ondas
causadas por el arco en la cuerda al tiempo t = 0.
Figure 1. La solución de la cuerda vibrando. La longitud de la
cuerda aquı́ es L = 1, la elongación inicial es l = 0.1 y la velocidad
de propagación de la onda v = 0.2. Se grafican varios momentos
de la vibración de la cuerda.
Comentario 13.7. Observemos que sin( vπ
L t+
L
2v
) = cos( πv
L t)
212
13. ECUACIONES DIFERENCIALES PARCIALES
Comentario 13.8. Un metodo equivalente para resolver la ecuación de onda
es proponiendo el ansatz u(x, t) = X(x) exp(−ikt). Subtituyendo este ansatz en la
ecuación (13.5) se obtiene
k2
d2 X
+
X =0
dx2
v2
que es la ecuación del oscilador armónico de nuevo. La solución es la misma que
en el ejemplo, haciendo c = k 2 /v 2 . Sin embargo, utilizando este ansatz es posible
escribir la solución general (sin condiciones iniciales) en forma de una suma. Para
cada k se tiene una solución de la ecuación de onda. Por eso, la solución general
se puede escribir como
X
k
(x + xk ) e−ikt
(13.6)
u(x, t) =
uk sin
v
k
Observemos que el conjunto {sin(kx)}k=0,··· ,∞ es un conjunto completo. Es por
eso que a t = 0 uno puede ajustar alguna función que determine las condiciones
iniciales del problema. Igualmente se podrı́a escoger otra forma de la solución de
la ecuación del oscilador armónico y escribir en terminos de esta nueva forma las
condiciones iniciales del problema.
Ejemplo 13.9. Supongamos que en vez de una guitarra se tiene un violin tal
que al frotar el arco en la cuerda, produce una forma inicial de la cuerda de la forma
3
P
uk sin (k/v (x + xk )). Explicitamente, la solución a todo tiempo se
u(x, 0) =
ve como
k=−3
u(x, t) =
k
u1 sin
(x + x1 ) eit + e−it +
v
2
u2 sin
(x + x2 ) ei2t + e−i2t +
v
3
(x + x3 ) ei3t + e−i3t
u3 sin
v
Supongamos que u0 = 0, u±1 = 4, u±2 = 2 y u±3 = 1 y que x1 = −1, x2 = 1 y
x3 = 0, entonces la solución a tiempo t = 2 se ve como en la figura 2. Los modos
1, 2 y 3 se suman a cada instante. Cada uno de ellos es una función sinusoidal
perfecta, una onda monocromatica, pero al sumarse, la onda final es distorcionada
por la suma de todas. Las ondas reales son ası́, sumas de ondas monocromaticas,
de funciones senos o cosenos con diferentes frecuencias y fases.
Ejercicio 13.10. Resuelvan el sistema con las condiciones iniciales u0 = 0,
u±1 = 1, u±2 = 2 y u±3 = 4. Grafiquen la solución a todo tiempo con v = 1,
modificando los valores de las constantes xk .
Ejercicio 13.11. Resuelvan la ecuación de la cuerda pero ahora con las condi2
P
uk cos (kx/v), donde de nuevo u0 = 0, u±1 = 4 y
ciones iniciales u(x, 0) =
k=−2
u±2 = 1. Grafiquen la solución a todo tiempo con v = 1.
Notación 13.12. A las componentes de la sumatoria (13.6) se les conoce como
modos normales de vibración de la cuerda.
2. SEPARACIÓN DE VARIABLES
213
Figure 2. . Gráfica de la solución de la ecuación de onda con
tres modos, aquı́ hemos puesto las condiciones iniciales con las
constantes u0 = 0, u1 = 4, u2 = 2 y u3 = 1, las fases de cada modo
son x1 = −1, x2 = 1 y x3 = 0. La solución se graficó al tiempo
t = 2.
Ejemplo 13.13. Vamos a suponer que la cuerda tiene una fuente. Es decir,
alguien o algo esta provocando la onda. En tal caso la ecuación de la onda se ve
como
1 ∂2u
∂2u
−
= d(x, t)
∂x2
v 2 ∂t2
Si la fuente es del tipo d = σ(x) sin(kt), podemos utilizar el ansatz u(x, t) =
X(x) sin(kt). Si subtituimos en la ecuación anterior se obtiene
k2
d2 X
+
X = σ(x)
dx2
v2
que es la ecuación del oscilador armónico con fuentes. Esta ultima ecuación se
resuelve entonces como en la sección anterior.
Ejemplo 13.14. Vamos a resolver la ecuación de la cuerda (X(0) = 0, X(L) =
0) suponiendo que la fuente de sonido es de un arco de violin tal que d(x, t) =
A cos(lx) sin(kt). La ecuación de onda, con el ansatz u = X(x) sin(kt), se reduce a
resolver la ecuación del oscilador con la fuente
d2 X
k2
+ 2 X = A cos(lx)
2
dx
v
Usando las técnicas estudiadas para resolver la ecuación del oscilador con fuentes,
encontramos que la solución es
A
kx
kx
X (x) = −
B
sin
−
cos
+
cos
(lx)
2
v
v
l2 − kv2
214
13. ECUACIONES DIFERENCIALES PARCIALES
donde
kL
v
− cos (lL)
.
sin kL
v
Lo primero que llama la atención es que cuando la frecuencia de la fuente k se
aproxima al valor lv, el factor fuera del parentesis crece sin lı́mite. Sin embargo, el
termino dentro del parentesis va a cero, de tal forma que en el lı́mite
B=
cos
A sin(lx) (x − L)
,
2
l
por lo que la vibración es finita para todos los valores de k. La solución u(x, t) =
X(x) sin(kt), es una cuerda vibrante con extremos en el origen y en L, que se mueve
según la amplitud de vibración l.
lim X =
k→lv
Ejercicio 13.15. Grafiquen la solución anterior para k = 1, 2, con v = 1,
variando la longitud de la cuerda l y la amplitud de la fuente A.
Ejemplo 13.16. Supongamos ahora que hacemos resonar un tambor, es decir,
una membrana circular. Un tambor tiene simetria cilindrica (de hecho es un cilindro), asi es que usaremos coordenadas cilindricas. La membrana no tiene espesor,
asi que u = u(ρ, θ, t). La ecuación de onda es para este caso
∂u
1 ∂2u
1 ∂2u
1 ∂
ρ
+ 2 2 − 2 2 =0
ρ ∂ρ
∂ρ
ρ ∂θ
v ∂t
Vamos a utilizar el mismo ansatz que en el ejemplo anterior, pero ahora en tres
dimensiones, u = R(ρ)Θ(θ)T (t). Substituimos y encotramos de nuevo que
11 ∂
∂R
1 1 ∂2Θ
1 ∂2T
ρ
+
= 2
= −c
2
2
R ρ ∂ρ
∂ρ
Θ ρ ∂θ
v T ∂t2
lo cual implica tres ecuaciones, una para cada función. Primero, la ecuación se
separa como sigue
∂2T
+ c0 v 2 T
2
∂t
∂R
1 1 ∂2Θ
11 ∂
ρ
+
R ρ ∂ρ
∂ρ
Θ ρ2 ∂θ2
= 0
= −c0
Ahora buscamos separar las dos variable restantes, es decir
∂R
1 ∂2Θ
1 ∂
ρ
+ c0 ρ 2 = −
= c1
ρ
R ∂ρ
∂ρ
Θ ∂θ2
de donde se obtiene una ecuación para cada variable
d2 Θ
+ c1 Θ =
dθ2
∂R
∂
ρ
+ c0 ρ 2 − c1 R =
ρ
∂ρ
∂ρ
0
0
Las ecuaciones para T y Θ son de nuevo la ecuación del oscilador armónico. La
ecuación para R es la ecuación de Bessel, haciendo el cambio de variable c0 ρ2 = x2 ,
√
es fácil ver que la solución para la ecuación de R es R(ρ) = J√c1 ( c0 ρ). La solución
general será entonces
√
√
√
u(ρ, θ, t) = u0 J√c1 ( c0 ρ) sin ( c1 (θ + θ0 )) sin ( c0 v (t + t0 )) .
2. SEPARACIÓN DE VARIABLES
215
Supongamos que al tiempo t = 0 se le da un golpe al tambor que le provoca una
elongación de tamaño l en el centro de la membrana. Como la membrana que vibra
esta fija en los extremos del cı́rculo, se tendrá que
√
√
√
u(ρ, θ, t) = u0 J√c1 ( c0 ρ) sin ( c1 (θ + θ0 )) sin ( c0 vt0 ) = lF (πρ/L),
por ejemplo. De hecho, el único problema al que ahora nos enfrentamos es el de
representar la función F (πρ/L) en terminos de los polinomios de Bessel. Eso es
posible, porque los polinomios de Bessel son un conjunto completo. Finalmente
la solución quedara como la expresión
P de la función F (πρ/L)πven terminos de los
uk Jk (πρ/L) sin (kθ) cos L t , donde las conpolinomios de Bessel u(ρ, θ, t) =
k∈I
stentes uk son los coeficientes que determinan la elongación
inicial de la membrana
P
en terminos de las funciones de Bessel lF (πρ/L) =
uk Jk (πρ/L) sin (kθ).
k∈I
Ejercicio 13.17. Resuelvan la ecuación de la cuerda pero ahora con las condi2
P
uk Jk (πρ/L) sin (kθ), donde de nuevo u0 = 0,
ciones iniciales lF (πρ/L) =
k=−2
u±1 = 4 y u±2 = 1. Grafiquen la solución a todo tiempo con l = 1 y variando el
tamaño del tambor L.
Notación 13.18. A la ecuación
∇2 u + k 2 u = ρ
se le llama la ecuación de Helmholtz
Ejemplo 13.19. Vamos a resolver la ecuación homogenea de Helmholtz en
coordenadas esféricas. Usamos para esto, el metodo de separación de variables.
Proponemos el ansatz u(r, θ, ϕ) = R(r)Θ(θ)Φ(ϕ). Si subtituimos en la ecuación
diferencial, se obtiene
∂2Φ
1 1 ∂
1
∂Θ
1
1
∂
1
2 ∂R
r
+
sin(θ)
+
+ k2 = 0
2
2
2
2
R r ∂r
∂r
Θ r sin(θ) ∂θ
∂θ
Φ r sin (θ) ∂ϕ2
Para separar las variables, primero multiplicamos toda la ecuación por r2 sin2 (θ)
y separamos la ecuación para Φ. Se obtiene
1
∂Θ
∂
∂
1
2 ∂R
2
r
+ sin(θ)
sin(θ)
+ r2 sin2 (θ)k 2 = m2
sin (θ)
R
∂r
∂r
Θ
∂θ
∂θ
d2 Φ
+ m2 Φ = 0
dϕ2
la cual es otra vez la ecuación del oscilador armónico para la función Φ. Ahora
separamos las ecuaciones para R y para Θ . Se obtiene
1 ∂
∂R
1 1 ∂
∂Θ
m2
= l (l + 1)
r2
+ k 2 r2 = −
sin(θ)
+
R ∂r
∂r
Θ sin(θ) ∂θ
∂θ
sin2 (θ)
en donde la constante la hemos llamado l (l + 1) por conveniencia. Nos queda una
ecuación para cada variable, estas son
d
dR
r2
+ k 2 r2 − l (l + 1) R = 0
dr
dr
1 d
dΘ
m2
sin(θ)
+ l (l + 1) −
Θ = 0
sin(θ) dθ
dθ
sin2 (θ)
216
13. ECUACIONES DIFERENCIALES PARCIALES
Estas dos ecuaciones diferenciales pueden resolverse usando los métodos de la sección
anterior. Sin embargo, estas dos ecuaciones ya son conocidas.
Vamos a hacer un
√
cambio de variable. En la primera hagamos R = S/ r y en la segunda hagamos
x = cos(θ). La ecuación para R se convierte entonces en la ecuación de Bessel y la
ecuación para Θ en la ecuación de Legendre, esto es
2 !
2
dS
1
2d S
2 2
S = 0
r
+r
+ k r − l+
dr2
dr
2
d2 Θ
dΘ
m2
1 − x2
Θ = 0
−
2x
+
l
(l
+
1)
−
dx2
dx
1 − x2
La solución general de la ecuación de Helmholtz es entonces
X Jl+1/2 (kr)
√
Plm (cos (θ)) e±imϕ
u(r, θ, ϕ) =
r
l,m
Las condiciones de frontera de esta ecuación se deberan escribir en terminos de
estos polinomios.
Ejercicio 13.20. Grafiquen en coordenadas polares las superficies generadas
por las soluciones de la ecuación de Helmholtz para m = 0 y l = 0, 1, 2, variando el
valor de k.
Ejemplo 13.21. Ahora utilizaremos el método de separación de variables en la
ecuación de difusión en una dimensión. Subtituyamos el ansatz u(x, t) = X(x)T (t)
en la ecuación (13.2) para obtener
1 ∂T
D ∂2X
= −c
=
T ∂t
X ∂x2
donde estamos suponiendo que D es una constante. Separamos las variables y
obtenemos las dos ecuaciones
dT
+ cT = 0
dt
c
d2 X
+ X = 0
2
dx
D
La ecuación para T se pude resolver integrando directamente. Se obtiene que
T (t) = T0 e−ct mientras que la segunda es la ecuación del oscilador armónico. Su
solución es
√
√
X (x) = c1 e −c/D x + c2 e− −c/D x ,
por lo que la solución de la ecuación de difusión es
√
√
u(x, t) = c1 e −c/D x−ct + c2 e− −c/D x−ct .
Los comportamientos de esta función son muy diversos según se tomen los valores
de los parametros que la determinan. Observemos primero el caso en que c/D es
positivo. Si c1 = c2 , la parte espacial de la solución es oscilante. La onda se disolvera si c es también positivo, es decir, se disipa la onda, como en la figura 3. Si
c fuera negativa, la onda crece indefinidamente. El comportamiento es muy diferente si c/D es negativo. Entonces la solución no es una onda, sino una función
monótona. Aunque si c es positivo, esta solución también se disipa, como se muestra en la figura 4.
2. SEPARACIÓN DE VARIABLES
217
Figure 3. . Solución de la ecuación de difusión unidimensional.
Se grafica la función u(x, t) = [c1 exp(dx) + c2 exp(−dx)] exp(−ct),
donde d2 = −c/D. Aquı́ se toma d imaginario con d = i y c = 1.
c1 = c2 = 1 por facilidad. La onda se disipa en el tiempo.
Figure 4.
. Otra solución de la ecuación de difusión unidimensional.
Se grafica la función u(x, t) = [c1 exp(dx) +
c2 exp(−dx)] exp(−ct), donde d2 = −c/D. Aquı́ se toma d real
con d = 1 y c = 1. c1 = c2 = 1 por facilidad. También aquı́ la
onda se disipa en el tiempo.
Comentario 13.22. De la misma forma que en la ecuación de onda, uno puede
iniciar con el ansatz u(x, t) = X(x) exp(−kt). El resultado es que la función X es
solución de la ecuación del oscilador armónico y la solución general se puede poner
218
13. ECUACIONES DIFERENCIALES PARCIALES
como una serie, es decir
(13.7)
u(x, t) =
X
ck e
√
−k/Dx
+ dk e−
√
−k/Dx
k
e−kt
La función entre parentesis es la forma de la función u al tiempo t = 0 (o a
cualquier tiempo fijo), escrita en términos de las soluciones de la ecuación del
oscilador armónico.
Ejercicio 13.23. Hagan un análisis de esta solución para D > 0 y para D < 0
con la serie hasta k = 3. Grafiquen las soluciones para diferentes valores de las
constantes y traten de dar una interpretación en cada caso.
Ejemplo 13.24. La ecuación de Poisson es la ecuación diferencial eliptica
mas importante de la fı́sica. Vamos a usar el método de separación de variables
para resolverla. Vamos a iniciar primero utilizando el método para la ecuación de
Laplace en dos dimensiones, esto es
∂2u ∂2u
+ 2 =0
∂x2
∂y
Apliquemos el ansatz u(x, y) = X(x)Y (y) en la ecuación diferencial, esto nos da
1 ∂2X
1 ∂2u
=−
=c
2
X ∂x
Y ∂y 2
lo que nos da dos ecuaciones separadas de la forma
d2 X
− cX = 0
dx2
d2 Y
+ cY = 0
dy 2
√
√
cuyas soluciones son X = X0 sinh ( c (x + x0 )) y Y = Y0 sin ( c (y + y0 )).
Ejemplo 13.25. Hay otra forma de resolver la ecuación de Poisson. Vamos a
efectuar el cambio de variable ζ = x + iy en la ecuación de Posson de dos dimensiones. Utilizando la regla de la cadena, la ecuación de Poisson se reduce a
∂u
=0
∂ζ∂ ζ̄
Si integramos esta ecuación obtenemos que u = Z (ζ) + Z̄ ζ̄ es la solución general
de esta ecuación, donde la función Z es arbitraria y debe de escogerse según las
condiciones de frontera del sistema.
Ejercicio 13.26. Haciendo un procedimiento análogo a la ecuación de onda,
den la expresión para la solución en series de la ecuación de Laplace.
Comentario 13.27. Observemos que si hacemos el cambio de variable ξ =
x + vt y η = x − vt en la ecuación de onda, esta se transforma en la ecuación
∂2u
=0
∂ξ∂η
Por lo que la ecuación de onda también admite una solución con dos funciones
arbitrarias u = f1 (ξ) + f2 (η) = f1 (x + vt) + f2 (x − vt).
Notación 13.28. A las coordenadas ξ = x + vt y η = x − vt se les llama
coordenadas nulas.
2. SEPARACIÓN DE VARIABLES
219
Ejercicio 13.29. Usando el metodo de separación de variables, demuestre que
en coordenadas cilindricas, la ecuación de Laplace se reduce a las tres ecuaciones
d2 Θ
+ c1 Θ =
dθ2
∂
∂R
ρ
ρ
+ c0 ρ 2 − c1 R =
∂ρ
∂ρ
∂2Z
− c0 Z =
∂z 2
0
0
0
donde u = R(r)Θ(θ)Z(z). De la forma de la solución general de la ecuación.
Ejercicio 13.30. Usando el metodo de separación de variables, demuestre que
en coordenadas esfericas, la ecuación de Laplace se reduce a las tres ecuaciones
d2 Φ
+ m2 Φ
dϕ2
d
dR
r2
− l (l + 1) R
dr
dr
d2 Θ
dΘ
m2
Θ
−
2x
+
l
(l
+
1)
−
1 − x2
dx2
dx
1 − x2
=
0
=
0
=
0
donde u = R(r)Θ(θ)Φ(ϕ), con x = cos (θ).
Ejemplo 13.31. Vamos a resolver la ecuación de Poisson para un problema
con simetria esférica, es decir, donde u = R(r) y d = d(r) solamente. Se tiene
entonces
1 d
dR
∇2 u = 2
r2
=d
r dr
dr
Podemos reducir este problema hasta cuadraturas, obtenemos
Z
Z 1
2
dr
d
r
dr
dr
R=
r2
Por ejemplo, si la densidad es d = d0 /r2 se obtiene que R = d0 ln (r) − c1 /r + c2 ,
donde c1 y c2 son constantes arbitrarias. Si se tratara de un problema gravitacional,
u serı́a el potencial gravitacional y −∇u seria la fuerza. En nuestro caso, la fuerza
ejercida por este potencial es
−
ρ0
c1
dR
=− − 2
dr
r
r
Ejercicio 13.32. Supongan que la densidad de un objeto es
d0
1) d = r(r+1)
2
2) d =
d0
(r 2 +1)
d0
(r+1)3
3) d =
Integren la ecuación de Poisson para estos casos y hagan un analisis cualitativo del
comportamiento de la solución para cada uno. Calculen F = −du/dr para cada
inciso y grafiquen la función F .
220
13. ECUACIONES DIFERENCIALES PARCIALES
3. Método de series de Fourier
Otro método muy utilizado para resolver las ecuaciones diferenciales es de nuevo
el método de desarrollo de Fourier. Usaremos los resultados del capı́tulo anterior
para resolver las ecuaciones en derivadas parciales. Para esto es mejor estudiar
algunos ejemplos.
Ejemplo 13.33. La ecuación de onda también se puede resolver usando los
desarrollos de Fourier. Escribamos la transformada de Fourier de la ecuación de
onda, es decir
Z ∞
1 ∂2u
∇2 u − 2 2 exp(−ikt)dt =
v ∂t
−∞
k2
U = ρ
v2
donde U es la tranformada de Fourier de u, es decir
Z ∞
u exp(−ikt)dt
U = (u, xk ) =
∇2 U +
(13.8)
−∞
y hemos usado las propiedades de la transformada de Fourier del ejemplo 12.38.
Por lo que se sigue
Z ∞
1
U exp(ikt)dk
(13.9)
u=
2π −∞
En este caso, el problema de resolver la ecuación de onda se ha reducido a la
solución de la ecuación (13.8). Por ejemplo, en una dimensión, esta ecuación es
la ecuación del oscilador armónico.
Comentario 13.34. Observemos que la solución (13.8) es de hecho la misma
solución (13.6) en donde ahora la suma sobre k es llevada al lı́mite continuo. La
suma se convierte en una integral.
Ejemplo 13.35. De la misma forma en que la ecuación de onda se puede resolver por medio de transformadas integrales, la ecuación de difusión también puede
ser reducida usando estas transformadas. Vamos a aplicar una transformación de
Laplace a la ecuación de difusión. Esto es
Z ∞
∂u
− ∇ · (D∇u) exp(−st)dt = 0
∂t
0
(13.10)
implica sU − u(x, 0) − ∇ · (D∇U ) = 0
donde U es la transformada de Laplace de u, es decir
Z ∞
(13.11)
U=
u exp(−st)dt
0
Si D es una constante, la ecuación (13.10) se convierte en la ecuación de Helmholtz.
Comentario 13.36. Análogo al caso de la tranformación de Fourier, observemos que la solución (13.11) es la misma que la solución (13.7), solo que en (13.11)
se ha tomado la suma continua de todos los modos de k, pasando la suma a una
integral.
4. FUNCIONES DE GREEN
221
4. Funciones de Green
Para la resolución de ecuaciones diferenciales no homogeneas existe una técnica
llamada función de Green. Básicamente consiste en escribir la función solución y la
función de la parte no homogenea, en términos de una base del espacio de Hilbert
correspondiente. Por sencillez se escoge la base correspondiente a las soluciones de
la ecuación homogenea. Vamos a ver esto.
Algoritmo 13.37. Sea Lu = 0 una ecuación diferencial. Sea Luk − λk uk = 0
una ecuación diferencial
con soluciones uk en un espacio de Hilbert con el producto
R
interno (f, g) = f ḡ, siendo {uk }k∈I una base de este espacio de Hilbert. Sea
Lu − λu = f
la ecuación diferencial no homogenea que queremos resolver. Podemos escribir la
función u y la función f en terminos de la base {uk }k∈I , usando la serie de Fourier
en la base {uk }k∈I , es decir
X
X
u=
(u, uk ) uk :=
ck u k
kǫI
y
f=
X
k∈I
(f, uk ) uk :=
kǫI
X
fk u k .
k∈I
Si substituimos esto en la ecuación diferencial no homogenea, se obtiene
X
X
ck (λk − λ) uk =
fk u k
k∈I
k∈I
como {uk } es una base del espacio de Hilbert, se sigue que las constantes ck deben
cumplir
ck
=
=
(f, uk )
fk
=
λk − λ
λ −λ
Z k
1
f ūk
λk − λ
Entonces la solución de la ecuación diferencial no homogenea será
X uk Z
u =
f ūk
λk − λ
kǫI
Z X
uk (x)
ūk (y) f (y) dy
=
λk − λ
kǫI
Definición 13.38. A la función
G(x, y) =
X uk (x)ūk (y)
kǫI
λk − λ
se le llama función de Green.
Definición 13.39. A las funciones uk soluciones de la ecuación Luk −λk uk = 0
se les llama funciones propias del operador L y a las constantes λk se les conoce
como valores propios del operador L.
222
13. ECUACIONES DIFERENCIALES PARCIALES
En términos de la función de Green, la solución de la ecuación diferencial no
homogenea se escribe como
Z
(13.12)
u (x) = G(x, y)f (y) dy.
Ejemplo 13.40. Tomemos primero una ecuación sencilla. Vamos a deducir la
función de Green de la ecuación del oscilador armónico. Esto es
d2
u + ω2u = 0
dx2
2
d
El operador L = dx
2 y las fuciones propias de este operador, son las soluciones del
oscilador armónico
d2
uk − λk uk = 0
dx2
Si las condiciones de frontera son tales que u (0) = u (l) = 0, como
p el de una cuerda
fija vibrando, las funciones propias del operador son u (x) = 2/l sin(kπx/l) y los
2
valores propios serán λk = − (kπ/l) . De donde la función de Green es
G (x, y) =
∞
kπy
2 X sin( kπx
l ) sin( l )
2
l
ω 2 − kπ
k=0
l
Formalmente la solución de la ecuación del osclilador inhomogenea será
Z l X
∞
kπy
sin( kπx
2
l ) sin( l )
f (y) dy
u (x) =
2
0 l k=0
ω 2 − kπ
l
Ejemplo 13.41. Vamos a obtener la función de Green de la ecuación diferencial
de Legendre. La ecuación es
d
2 du
− λu = 0
1−x
dx
dx
d
d
1 − x2 dx
en el intervalo [−1, 1], los
Si tomamos al operador diferencial L = dx
valores propios del operador L serán λn = −n (n + 1) y las funciones propias serán
los polinomios de Legendre. Eso implica que la función de Green para la ecuación
diferencial de Legendre es
G (x, y) =
∞
2n + 1 X Pn (x) Pn (y)
2 n=0 λ + n (n + 1)
Entonces la solución de la ecuación de Legendre inhomogenea será
Z 1
∞
2n + 1 X Pn (x) Pn (y)
u (x) =
f (y) dy
2
λ + n (n + 1)
−1
k=0
Ejercicio 13.42. Escriban explicitamente la función de Green de las ecuaciones de
1) Laguerre
2) Bessel completa
3) Hermite
4. FUNCIONES DE GREEN
223
Comentario
13.43. Si utilizamos las propiedades de la delta de Dirac,
0 si x 6= 0
1.- δ (x) =
∞ si x = 0
R
2.- R δ (x) dx = 1
3.- f (z)δ (z − x) dzR= f (x)
∞
1
n
n
4.- δ (x − y) = (2π)
n
−∞ d k exp (ik · (x − y)), para k, x, y ∈ ℜ
podemos dar un metodo alternativo para encontrar la función de Green. Usando la
propidad 3.-, observamos que
Z
G(x, z)δ (z − y) dz = G (x, y)
Si comparamos este resultado con (13.12), observamos que la función de Green es
una solución de la ecuación diferencial
LG(x, y) − λG(x, y) = δ (x − y)
Comentario 13.44. En tres dimensiones, la delta de Dirac se escribe como
δ (r1 − r2 )
= δ (x1 − x2 ) δ (y1 − y2 ) δ (z1 − z2 ) en coordenadas cartesianas
1
=
δ (r1 − r2 ) δ (ϕ1 − ϕ2 ) δ (cos (θ1 ) − cos (θ2 )) en coordenadas esfericas
r12
= δ (ρ1 − ρ1 ) δ (ϕ1 − ϕ2 ) δ (z1 − z2 ) en coordenadas cilindricas
En muchas ocaciones es mas conveniente encontrar la función de Green usando
estas propiedades. Usando la propiedad 1.- de la delta de Dirac, se resuelve la
ecuación homogenea y luego esta solución se une a la solución de la ecuación con
la delta de Dirac. Vamos a estudiar un ejemplo.
Ejemplo 13.45. Regresemos una vez más a la ecuación del oscilador armónico
no homogeneo, con
d2
u + ω 2 u = δ (x − y)
dx2
Para x 6= y, la ecuación diferencial es simplemente
(13.13)
d2
u + ω2u = 0
dx2
y por lo tanto tiene soluciones tales que u = A sin (ω (x + x0 )). Supongamos que
A sin (ω (x + xA )) para x < y
u=
B sin (ω (x + xB )) para x > y
Si las condiciones de frontera son como antes, u (0) = u (l) = 0, debemos tener que
xA = 0 y xB = −l. Ademas observemos lo siguiente. Si integramos la ecuación
(13.13) en una región infinitecimal alrededor de y, obtenemos
Z y+ε 2
Z y+ε
Z y+ε
d
2
u
+
ω
u
=
δ (x − y) =
2
y−ε dx
y−ε
y−ε
y+ε
d u
= 1
dx y−ε
para cuando ε → 0. Esto implica que la derivada de u tiene una descontinuidad en
y igual a 1. Si volvemos a integrar esta ecuación, obtenemos que
y+ε
u|y−ε = 0
224
13. ECUACIONES DIFERENCIALES PARCIALES
lo que implica que la función u misma no es discontinua. Si usamos este hecho,
debe cumplirse que en el punto y se sigue
A sin (ωy) = B sin (ω (y − l))
Aω cos (ωy) + 1
= Bω cos (ω (y − l))
Este es un sistema de ecuaciones que se puede resolver para A y B. El resultado es
sin (ω (y − l))
A =
ω sin (ωy)
sin (ωy)
B =
ω sin (ωy)
Por lo que la función de Green es
1
sin (ω (y − l)) sin (ωx) para 0 < x < y
G (x, y) =
sin
(ωy) sin (ω (x − l)) para y < x < l
ω sin (ωy)
Para el caso de una ecuación diferencial de varias dimensiones pero con coeficientes constantes, podemos dar una forma general de la función de Green en la
forma de su transformada de Fourier.
Proposición 13.46. La función de Green del operador
L = a0 + a1
es
1
n
(2π)
G (x, y) =
Z
∂
∂2
∂2
∂
+ · · · + an
+ b1 2 + · · · + bn 2
∂x1
∂xn
∂x1
∂xn
∞
−∞
dn k exp (ik · (x − y))
2,
2
a0 + ia1 k1 + · · · + ian kn + b1 (ik1 ) + · · · + bn (ikn )
para k = (k1 , . . . , kn ), x = (x1 , . . . , xn ) y y = (y1 , . . . , yn )
Demostración 13.47. Observemos que
1
n
(2π)
Z
1
n
(2π)
Z
∞
−∞
∞
−∞
dn k
∂
∂xs
P
exp i j kj (xj − yj )
∂
G (x, y)
∂xs
a0 + ia1 k1 + · · · + ian kn + b1 (ik1 )2 + · · · + bn (ikn )2
P
dn k iks exp i j kj (xj − yj )
2
a0 + ia1 k1 + · · · + ian kn + b1 (ik1 ) + · · · + bn (ikn )
2
=
=
=
Por lo que al subtituir G (x, y) en el operador L, se llega a LG (x, y) = δ (x − y).
Como ejemplo vamos a encontrar la función de Green del operador nabla y de
algunos operadores relacionados con él.
Ejemplo 13.48. Encontremos la función de Green del operador ∇2 en coordenadas cartesianas. Como ya vimos en la proposición anterior, la función de Green
tiene la forma
Z ∞ 3
1
d k exp (ik · (x − y))
G (x, y) =
(2π)3 −∞ (ik1 )2 + (ik2 )2 + (ik3 )2
Ahora hagamos la integral. Para hacer la integral nos conviene utilizar coordenadas
esféricas en la variable k, esto es k1 = k sin (θ) cos (ϕ), k2 = k sin (θ) sin (ϕ) y
4. FUNCIONES DE GREEN
225
k3 = k cos (θ). Y por conveniencia podemos escoger k3 en la dirección x − y para
obterner solo k · (x − y) = k |x − y| cos (θ). Entonces la integral se reduce a
Z ∞ Z 2π
Z π
1
G (x, y) =
dk
dϕ
sin (θ) dθ exp (ikR cos (θ))
3
(2π) 0
0
0
Rπ
donde hemos escrito R = |x − y|. La integral 0 sin (θ) dθ exp (ikR cos (θ)) =
2 sin (kR) /kR, por lo que
Z ∞
4π
1
G (x, y) = −
dk 2 sin (kR) /kR = −
3
4πR
(2π) 0
Es decir, la función de Green para el operador Laplaciano es
1
G (x, y) = −
4π |x − y|
Ejercicio 13.49. Encuentre por este metodo la función de Green del operador
de Helmholtz ∇2 + k 2
Ejemplo 13.50. Ahora procedamos a encontrar la función de Green del operador D’Alambertiano
1 ∂2
= ∇2 − 2 2 .
v ∂t
Usando de nuevo la proposición 13.46, la función de Green tiene la forma
Z ∞
1
d4 k exp (ik4 · (x4 − y4 ))
G (x4 , y4 ) =
4
2
2
2
2
(2π) −∞ (ik1 ) + (ik2 ) + (ik3 ) − 1/v 2 (ik4 )
donde x4 = (x1 , x2 , x3 , t) y y4 = (y1 , y2 , y3 , t′ ). Vamos a llamar a k = (k1 , k2 , k3 )
a k42 /v 2 = ω 2 y como en el ejemplo anterior R = x − y ∈ℜ3 . Ademas llamemos
T = t − t′ . Con estas definiciones se obtiene que
Z ∞
Z ∞
exp (−iωvT )
1
3
dω
d
k
exp
(ik
·
R)
G (x4 , y4 ) = −
3
k2 − ω2
(2π) −∞
−∞
La integral
Z ∞
exp (−iωv (t − t′ ))
2π sin (kv (t − t′ )) / (kv)
dω
=
2
2
0
k −ω
−∞
para
para
t > t′
t < t′
resuelta en el ejemplo 7.53 (en el capitulo de series de variable compleja). Si usamos
este resultado obtenemos
R∞ 3
1
1
sin (kv (t − t′ )) para T > 0
d k exp (ik · R) kv
− 2π
−∞
G (x4 , y4 ) =
0
para T < 0
Usando un procedimiento semejante al del ejemplo anterior para evaluar la primera
integral, obtenemos que
Z ∞
1
sin (kvT ) =
d3 k exp (ik · R)
kv
−∞
Z
πv ∞
dk [exp (ik (R + vT )) − exp (ik (R − vT ))] =
−
R −∞
2π 2 v
2π 2 v
[δ (R + vT ) − δ (R − vT )] =
δ (R − vT )
R
R
donde hemos usado la propiedad 4.- de la delta de Dirac del comentario 13.43
y donde también hemos quitado la primera delta de Dirac del resultado ya que
−
226
13. ECUACIONES DIFERENCIALES PARCIALES
para T > 0 ésta no contribuye. Entonces, la función de Green del operador
D’Alambertiano es
v
δ (R − vT ) para T > 0
− 4πR
G (x4 , y4 ) =
0
para T < 0
Ejemplo 13.51. Para el operador de difusión, el procedimiento es semejante.
Sea
∂2
1 ∂
−
∂x2
D ∂t
Claramente su función de Green esta dada por
Z ∞
exp (ik1 (x − y) + ik2 (t − t′ ))
1
dk1 dk2
G (x, t, y, t′ ) =
2
2
(2π) −∞
(ik1 ) − i/Dk2
(
q
(x−y)2
D
− 12 π|t−t
para t > t′
− 4D|t−t
′ | exp
′|
=
0
para t < t′
L=
integral que fue evaluada en el ejemplo 7.53.
Ejercicio 13.52. Encuentren por este método la función de Green del operador
de difusión completo
1 ∂
L = ∇2 −
D ∂t
Ejercicio 13.53. Encuentren por este método la función de Green del operador
de Schrödinger sin potencial
L = iℏ
en coordenadas cartesianas.
∂
ℏ2 2
+
∇
∂t 2m
Part 6
TOPOLOGÍA
CHAPTER 14
ESPACIOS TOPOLÓGICOS
1. Definición y Ejemplos
Los espacios topológicos son la base, entre otras cosas, de la estructura matemática
que le dará forma a los conjuntos. Como veremos en esta sección, basicamente dos
espacios topologicos son los mismos (homeomorficos), si se puede moldear uno de
ellos en plastilina y transformar este hasta llegar al otro sin romper la plastilina,
sin hacerle agujeros. Por ejemplo, un vaso para tomar agua y una pelota, serı́an
los mismos desde el punto de vista de la topologı́a, ası́ mismo, una taza con una
aza es equivalente a una dona, etc. Estos espacios han adquirido importancia en
varias ramas de la fı́sica y la ingenierı́a para poder hacer modelos. Por ejemplo, en
la ingenierı́a, las imágenes que se obtienen en la computadora son dijitales, estan
hechas por pixeles discontinuos. En este caso, resulta muy inexacto para algunas
aplicaciones tomar el espacio métrico correspondiente. En la actualidad existen
varios modelos topológicos que prometen ser más eficientes. En fı́sica, los campos
estan cuantizados, el campo gravitacional es el espacio tiempo mismo, si éste está
cuantizado, no pude ser metrizable y por tanto no hay una métrica que lo represente, el campo gravitacional vive entonces en espacios que no pueden ser modelados
por espacios métricos simples. Los espacios topológicos podrı́an ser más exactos
en modelar espacios cuantizados o los espacios cuánticos mismos. La geometrı́a
diferencial es una herramienta que se utiliza hoy en dı́a intensivamente en varias
ramas de la ciencia. El control automático necesita de esta herramienta en gran
medida. En este capı́tulo veremos tanto la topologı́a como la geometrı́a diferencial.
Iniciemos con la definición de espacio topológico.
Definición 14.1. Sea X conjunto y τX ⊂ P (X) subconjunto del conjunto potencia P (X) . Un espacio topológico es el par (X, τX ) , tal que: φ y X pertenecen
a τX y τX es cerrado bajo uniones arbitrarias e intersecciones finitas.
Vamos a entender esta definición. Explicitamente, un espacio topológico es un
subconjunto del conjunto potencia que cumple con los siguientes axiomas:
i) φ, X ∈ τX es decir, el vacio y todo el conjunto siempre están en la topologı́a
τX de X.
ii) Si Uα ∈ τX con α ∈ J (J un conjunto de ı́ndices) entonces ∪ Uα ∈ τX , es
α∈J
decir, la union arbitraria de elementos de τX es un elemento de τX .
iii) Ui ∈ τX con i = 1, · · · , n implica que ∩ni=1 Ui ∈ τX , es decir, la intersección
finita de elementos de τX es un elemento de τX .
Notación 14.2. A los elementos de τX se les llama abiertos, a sus complementos cerrados y a τX se le llama topologı́a sobre X.
229
230
14. ESPACIOS TOPOLÓGICOS
Comentario 14.3. Noten que tanto el conjungo vacio φ como todo el conjunto
X son abiertos y cerrados a la vez, ya que φc = X y X c = φ. Esta es una propiedad
de todos los espacios topológicos.
Más adelante veremos algunos ejemplos de espacios topológicos para ser más
explicitos, pero por ahora vamos a definir algunos conceptos que nos van a servir
durante nuestra discusión.
Definición 14.4. Sea (X, τX ) espacio topológico, U ∈ τX y x ∈ U . Se dice
entonces que U es una vecindad de x, se denota x ∈ Ux . Un entorno de x ∈ X
es un sobconjunto N ⊂ X, tal que x ∈ N y existe Ux ⊂ N , vean la figura 1.
Es decir, una vecindad de algún punto es siempre un abierto que contiene
al punto, mientras el entorno es un conjunto más grande que algún abierto, que
contiene al punto, pero no es un abierto él mismo.
Figure 1. Ux es una vecindad de x, es decir, es un abierto que
contiene a x. Un entorno de x, en cambio, es un sobconjunto de
X tal que x esta en N y N contiene a una vecindad de x.
Definición 14.5. Sea (X, τX ) espacio topológico. Una cubierta de A ⊂ X,
es una familia de abiertos U = {Uα }α∈K tal que ∪ Uα = A. Una subcubierta V
α∈K
de U, es una familia V = {Vβ }β∈J tal que V es cubierta de A y Vα ∈ V implica
Vα ∈ U.
En forma sencilla, una cubierta de A es simplemente un conjunto de abiertos
que cubre todo el conjunto A y una subcubierta de la cubierta es un subconjunto
de la cubierta que también cubre A. Ahora veamos algunos ejemplos de espacios
topológicos.
Ejemplo 14.6. τX = P (X) es siempre una topologı́a llamada la topologı́a
discreta de X en donde cada elemento es un abierto de X.
Ejemplo 14.7. τX = {φ, X} es llamada la topologı́a indiscreta de X.
Estos dos ejemplos nos dicen que todo conjunto tiene al menos dos topologı́as,
la discreta y la indiscreta. Es decir, se puede hacer de cualquier conjunto un espacio
topológico, incluso de un conjunto de borreguitos del campo.
1. DEFINICIÓN Y EJEMPLOS
231
Ejemplo 14.8. Si X = {x} , la única topologı́a que existe es τX = {{x} , φ}
Ejemplo 14.9. Si X = {a, b} , existen 4 topologı́as
1
a) τX = P (X) = {φ, {a} , {b} , {a, b}}
2
b) τX
= {{a, b} , φ}
3
c) τX = {φ, {a} , {a, b}}
4
d) τX
= {φ, {b} , {a, b}}
3
4
A las topologı́as τX
y τX
se les llama topologı́as de Sierpinski.
Estos son, tal vez, los espacios topológicos más simples que podemos construir.
Ahora veremos otros espacios más interesantes. Vamos a iniciar con los espacios
ℜn . Estos son espacios topológicos y tienen, claramente, muchas topologı́as. Sin
embargo, la topologı́a que generalmente usaremos aquı́ es la siguiente:
Ejemplo 14.10. X = ℜn , τX = {unión de bolas Br (x0 )}, donde Br (x0 ) =
{x ∈ ℜn | |x − x0 | < r} . Esta es la topologı́a canónica de ℜn .
Observen que la construcción de esta topologı́a se basa de hecho en la estructura
métrica de ℜn . La demostración de que esta última es una topologı́a para ℜn la
incluimos en la construcción de una topologı́a para todo espacio métrico en la
siguiente proposición.
Proposición 14.11. Sea (X, d) espacio métrico y τ = { conjuntos abiertos en (X, d)} .
Entonces (X, τ ) es un espacio topológico.
Demostración 14.12. Se tiene que:
i) X y φ son abiertos en (X, d) , ya que la bola Bǫ (x) = {y ∈ X | d (x, y) |< ǫ}
⊂ X y φ es abierto trivialmente.
ii) Sea {Aα }α∈I una familia arbitraria de conjuntos abiertos en (X, d) . Para
cada α, Aα es unión de bolas, Aα = ∪ Bβ (Aα ) y la unión de la unión de bolas
β∈K
es abierto en (X, d) .
n
iii) Sean Ai , i = 1, · · · , n conjuntos abiertos en (X, d) y V = ∩ Ai . Si x ∈ V
i=1
implica que x ∈ Ai para todo i = 1, · · · , n. Entonces existen {ri > 0}i=1,··· ,n tales
que Bri (x) ⊂ Ai . Tomemos r = min {ri }i=1,··· ,n , entonces Br (x) ⊂ Bri (x) para
todo i = 1, · · · , n y por tanto Br (x) ⊂ Ai para todo i = 1, · · · , n. Esto implica que
Br (x) ⊂ V , i.e. V es conjunto abierto en (X, d) . Ejercicio 14.13. Demuestren que en todo espacio topológico la intesección
arbitraria de cerrados es cerrada y la unión finita de cerrados es cerrada.
En los espacios métricos y normados es posible definir algunos conceptos como
continuidad o lı́mite debido a la existencia de la métrica o de la norma. En los
espacios topológicos esto también es posible, debido a la existencia de los abiertos.
Vamos a ejemplificar esto dando el concepto de lı́mite de una suseción. Veamos:
Definición 14.14. Sea (X, τX ) espacio topológico y (xi ) una sucesión en X,
i ∈ Z + . Se dice que (xi ) tiene el lı́mite x (o converge a x) si para todo vecindad
de x, Ux ∈ τX existe un entero positivo N ∈ Z + tal que xi ∈ Ux para todo indice
i ≥ N. Se denota como xi ⇀ x o lim xi = x.
Como ya vimos, todo espacio métrico es topológico, usando los abiertos definidos
por su métrica. Sin embargo, lo contrario no siempre se cumple, no todo espacio
232
14. ESPACIOS TOPOLÓGICOS
topológico es métrico. Es en éste sentido que los espacios topológicos son más generales que los espacios métricos. A veces es posible definir una métrica en un espacio
topológico, en éste caso se dice que el espacio topológico es metrizable, formalmente
se dice que:
Definición 14.15. Un espacio topológico (X, τX ) cuyos abiertos son los conjuntos abiertos del espacio métrico (X, d), se dice metrizable. A la topologı́a τX
sobre X se le llama topologı́a inducida por la distancia d.
Veamos la siguiente interesante proposición:
Proposición 14.16. En todo espacio topológico (X, τX ) metrizable, para cualquier
par de puntos, siempre existen dos vecindades disjuntas.
Demostración 14.17. (X, τX ) es metrizable, implica que existe una distancia
d que induce τX . Sean x, y ∈ X con x 6= y, entonces d (x, y) = 2ǫ para algún ǫ > 0.
Tomemos las bolas Bǫ (x) = {z ∈ X | d (x, z) < ǫ} y Bǫ (y) = {w ∈ X | d (w, y) < ǫ} ,
los cuales son abiertos de τX . Supongamos z ∈ Bǫ (x) ∩ Bǫ (y) , se sigue que
d (x, y) ≤ d (x, z) + d (z, y) < ǫ + ǫ = 2ǫ, pero d (x, y) = 2ǫ, lo cual es una contradicción. Por tanto z ∈
/ Bǫ (x) ∩ Bǫ (y) se sigue entonces que Bǫ (x) ∩ Bǫ (y) = φ.
De esta proposición se desprende que si queremos construir un espacio topológico
metrizable, le tenemos que pedir primero que existan dos vecindades disjuntas
para cada punto. Mas adelante veremos que a estos espacios se les llama espacios topológicos tipo T2 o Hausdorff.
En ocaciones los conjuntos son productos cartesianos de espacios topológicos o
se pueden descomponer en productos cartesianos de estos. En ese caso, si cada componente es un espacio topológico, el espacio total también lo será. Este resultado
se sigue de la proposición:
Proposición 14.18. El producto cartesiano de espacios topológicos es un espacio topológico.
Demostración 14.19. Sean (X, τX ) y (Y, τY ) espacios y (X × Y, τX×Y ) con
τX×Y = {uniones de elementos U × V ∈ τX × τY }. Entonces
i) φ ∈ τX×Y ya que φ = φ × φ, y X × Y ∈ τX×Y ya que X × Y ∈ τX × τY .
′
′
′
′
ii) Sean W = ∪ Uα × Vα y W ′ = ∪ Uβ × Vβ , Uα, Uβ ∈ τX , Vα, Vβ ∈ τY ,
α∈j
β∈k
para toda α ∈ J, β ∈ K. Entonces W ∩ W ′ =
∪
(α,β)∈J×K
′
′
′
′
∪
Uαγ
∪ Uα × Vα ∩ ∪ Uβ × Vβ =
α∈J
β∈k
Uα ∩ Uβ × Vα ∩ Vβ ∈ τX×Y .
iii) Sea Wα =
∪ (Uαγ × Vαγ ) ∈ τX×Y . Entonces ∪ Wα =
γ∈M
α∈L
(α,γ)∈L×M
×Vαγ ∈ τX×Y . Al par (X × Y, τX×Y ) se le llama producto topológico de los espacios (X, τX )
y (Y, τY ).
Ası́ mismo, se puede construir un espacio topológico de un subconjunto de un
espacio topológico utilizando la topologı́a del espacio original. Esto se ve en la
siguiente proposición:
2. CERRADURA, INTERIOR Y FRONTERA
233
Proposición 14.20. Sea (X, τX ) espacio topológico y A ⊂ X. Sea τA =
{A ∩ U, U ∈ τX }. Entonces el par (A, τA ) es un espacio llamado subespacio topológico
de X.
Demostración 14.21. i) φ ∈ τA ya que φ∩A = φ y A ∈ τA ya que A∩X = A.
ii) Sean Uα ∈ τX y A∩Uα ∈ τA , α ∈ J. Entonces ∪ A∩Uα = A∩ ∪ Uα ∈ τA .
α∈J
iii) Sean Ui ∈ τX ,
α∈J
n
i = 1, · · · , n y A ∩ Ui ∈ τA . Entonces ∩ A ∩ Ui =
i=1
n
A ∩ ∩ Ui ∈ τA . Se sigue que (A, τA ) es espacio topológico. i=1
Notación 14.22. A τA se le llama la topologı́a relativa o inducida por τX
sobre X.
Con esta proposición es entonces fácil ver que muchos espacios son topológicos
porque heredan la topolgia de algún espacio mayor. Veamos un ejemplo importante
que usaremos a lo largo de este capı́tulo.
ℜ
Ejemplo 14.23. Sea n ∈ Z. La n-esfera S n se define como un subespacio de
como
)
(
n+1
X
i 2
n
n+1
x
=1
x = (x1 , · · · , xn+1 )
S = x∈ℜ
|
n+1
i=1
Ası́, S 0 = x ∈ ℜ | x2 = 1 = {1, −1}
,
S 1 = (x, y) ∈ ℜ2 | x2 + y 2 = 1 ,
S 2 = (x, y, z) ∈ ℜ3 | x2 + y 2 + z 2 = 1 etc.
La topologı́a de S n será τS n = {S n ∩ U | U ∈ τℜn+1 } .
De la misma forma se pueden conocer los cerrados de un subespacio topológico,
conociendo los cerrados del espacio original, usando la proposición siguiente:
Proposición 14.24. Sea (A, τA ) subespacio topológico de (X, τX ) . V ⊂ A es
cerrado en A sı́ y sólo sı́ V = A ∩ R con R cerrado en X.
Demostración 14.25. =⇒) V cerrado en A implica que existe W ∈ τA tal
que V = A \ W, con W = A ∩ U , lo que implica que V = A \ A ∩ U = A ∩ U c con
U c cerrado en X.
⇐=) Sea R cerrado en X. Consideremos B = A ∩ R esto implica que B c =
A \ B = A \ A ∩ R = A ∩ Rc , y como Rc es abierto en X, B c es abierto en A, es
decir B es cerrado en A. 2. Cerradura, Interior y Frontera
En esta sección veremos tres conceptos para distinguir regiones de nuestro
espacio topológico. Si nuestro conjunto tiene una topologı́a, podemos distinguir la
región en donde termina el espacio, donde es adentro y afuera. Vamos a definir
estos conceptos. Iniciemos por definir un punto de adherencia.
Definición 14.26. Sea (X, τX ) espacio topológico, A ⊂ X y p ∈ X. Un punto
de adherencia p de A es aquel que toda vecindad de p no es disjunta con A, es
decir p es punto de adherencia si para toda Up ∈ τX se cumple Up ∩ A 6= φ, vean la
figura 2.
234
14. ESPACIOS TOPOLÓGICOS
Figure 2. Los puntos de adherencia del conjunto A. En la figura
se muestran puntos de adherencia y puntos que no son de adherencia del conjunto A.
Al conjunto de todos los puntos de adherencia se le llama la clausura, que nos
servir’a para definir el interior del espacio.
Definición 14.27. Al conjunto de puntos de adherencia se le llama clausura
y se denota por A, vean la figura 3
Figure 3. Los puntos de adherencia forman la clausura del conjunto A. Hay que comparar esta figura con la figura 2, en donde
se muestran los puntos de adherencia del conjunto A.
Comentario 14.28. Noten que si p ∈ A, implica que Up ∩ A 6= φ, por tanto
A⊂A
Veamos una serie de proposiciones referentes a la cerradura de un conjunto,
con el objetivo de concluir que la clausura es un conjunto cerrado. Veamos esto.
2. CERRADURA, INTERIOR Y FRONTERA
235
Proposición 14.29. A es cerrado ssi A = A.
Demostración 14.30. =⇒) Sea p ∈ A, i.e. para todo Up ∈ τX se cumple
Up ∩ A 6= φ. Supongamos que p ∈
/ A, entonces p ∈ Ac = X \ A ∈ τX , ya que A
es cerrado. Entonces existe Vp ∈ τX con Vp ⊂ X \ A o sea Vp ∩ A = φ, lo cual
contradice el hecho que p ∈ A, entonces p ∈ A, i.e. A ⊂ A.
⇐=) Sea q ∈ Ac y por tanto q ∈
/ A, entonces existe Vq ∈ τX con Vq ∩ A = φ
i.e. Vq ⊂ Ac para toda q. Entonces Ac es abierto. Corolario 14.31. A cerrado implica que A es cerrado.
Proposición 14.32. A es la intersección de todos los cerrados en X que contienen a A.
Demostración 14.33. Sea R = {Rα | A ⊂ Rα , Rα cerrado}α∈J . Sea x ∈
∩ Rα . Demostremos que x es punto de adherencia de A, o sea que x ∈ A. Sea
α∈j
M ∈ τX con x ∈ M . Supongamos M ∩ A = φ esto implica que A ⊂ M c que es un
cerrado que contiene a A, entonces x ∈ M c ya que M c = Rα para algún α, lo que
es una contradicción. Por lo tanto M ∩ A 6= φ. Sea q ∈ A y sea Rα para algún
α ∈ J. A ⊂ Rα implica que A ⊂ Rα = Rα se sigue entonces que q ∈ Rα para
todo α ∈ J es decir q ∈ ∩ Rα . α∈J
Corolario 14.34. A es cerrado.
Ejemplo 14.35. Los ejemplos más representativos y simples son en la recta
real con la topologı́a canónica. Es claro que [a, b] es cerrado. La cerradura de
(a, b) = [a, b], etc.
Ejemplo 14.36. La cerradura del conjunto de los racionales o del conjunto de
los irracionales son los reales, ya que junto a un racional siempre hay un irracional
y junto a un irracional hay un racional.
Ejemplo 14.37. Un ejemplo más interesante es el conjunto ℜ\Z. Observemos
que ℜ\Z = ℜ.
Ejercicio 14.38. Demuestren que
a) A ∪ B ⊃ A ∪ B
b) A ∩ B ⊂ A ∩ B
De una manera análoga se puede hacer lo mismo para puntos interiores de un
conjunto. Estos se definen como:
Definición 14.39. Sea (X, τX ) espacio topológico y p ∈ X. p es punto interior de A ⊂ X si existe Vp ∈ τX con Vp ⊂ A, vean la figura 4.
Definición 14.40. Al conjunto de puntos interiores de A ⊂ X se le llama
interior y se denota por Å. Note que p ∈Å implica que existe Vp ∈ τX con
p ∈ Vp ⊂ A, es decir Å⊂ A, vean la figura 5
Proposición 14.41. A es abierto ssı́ A =Å.
Demostración 14.42. =⇒) Sea p ∈ A, implica que existe Vp ∈ τX con Vp ⊂ A,
es decir p ∈Å se sigue entonces que A ⊂Å.
⇐=) Sea p ∈ A, como A =Å, entonces existe Vp ∈ τX con Vp ⊂ A, esto es, A
es abierto. 236
14. ESPACIOS TOPOLÓGICOS
Figure 4. La figura muestra los puntos interiores de A y algunos
que no son puntos interiores de A. Compare esta figura con las
figuras 2 y 3 anteriores sobre puntos de adherencia.
Figure 5. El interior de A. Compare esta figura con la figura 3
que muestra la cerradura de A.
Proposición 14.43. Å es la unión de todos los abiertos de X contenidos en
A.
Demostración 14.44. Sea U = {Uα | Uα ⊂ A. Uα abierto}α∈J . Sea q ∈
∪ Uα entonces q ∈ Uβ para algún β ∈ J tal que Uβ ⊂ A, por tanto q ∈Å, sea
α∈J
x ∈Å. Esto implica que existe Vx ∈ τX con x ∈ Vx ⊂ A, o sea x ∈ ∪ Uα , por lo
x∈J
tanto Å= ∪ Uα . α∈J
Corolario 14.45. Å es abierto.
2. CERRADURA, INTERIOR Y FRONTERA
237
Ejemplo 14.46. Los ejemplos más representativos y simples de nuevo son en
la recta real con la topologı́a canónica. Es claro que (a, b) es abierto. El interior de
[a, b]o = (a, b), etc.
Ejemplo 14.47. El interior del conjunto de los racionales o del conjunto de los
irracionales es vacio, ya que no hay abiertos que contengan racionales o irracionales
solamente.
Ejemplo 14.48. Un ejemplo más interesante es de nuevo el conjunto ℜ\Z.
Observemos que (ℜ\Z)o = ℜ\Z
Entonces, el interior es abierto y la cerradura es un cerrado. Para dar un
criterio de donde termina el espacio topológico, se define la frontera del conjunto.
La idea intiutiva es simple y su definición formal es como sigue:
Definición 14.49. La frontera (topológica) de A es la intersección de las
cerraduras de A y su complemento, se denota ∂A, i.e.
∂A = A ∩ Ac
La frontera de A tiene las siguientes propiedades:
i) ∂A es cerrado, ya que es intersección de cerrados.
c
ii) ∂Ac = Ac ∩ (Ac ) = Ac ∩ A = ∂A
iii) A = A ∪ ∂A ya que si p ∈ A y p ∈
/ A se sigue que p ∈ Ac ∩ A ⊂ Ac ∩ A = ∂A,
lo que implica que A ⊂ A ∪ ∂A, de la misma forma, si p ∈ A esto implica que p ∈ A
ó y si p ∈ ∂A implica que p ∈ A ya que ∂A = A ∩ Ac .
iv) ∂A = φ ssı́ A es cerrado y abierto a la vez. Esto es debido a que si ∂A = φ
se sigue que A = A ya que A = A ∪ ∂A, es decir A es cerrado. Por otro lado como
A = A, si A ∩ Ac = φ esto implica que Ac ⊂ Ac , pero como Ac ⊂ Ac , se sigue que
Ac = Ac , entonces Ac es cerrado, por lo que A es abierto. Al contrario, si A es
cerrado, se sigue que A = A, A abierto implica que Ac es cerrado y por lo tanto
Ac = Ac . Entonces A ∩ Ac = A ∩ Ac = φ.
v) ∂X = ∂φ = φ ya que X y φ son abiertos y cerrados.
vi) A es cerrado ssı́ ∂A ⊂ A, ya que A cerrado implica que A = A = A ∪ ∂A y
por lo tanto ∂A ⊂ A. A la inversa ∂A ⊂ A implica que A ∪ ∂A = A = A de donde
se sigue que A es cerrado.
Ejemplo 14.50. Tomemos de nuevo un ejemplo
T sobre la recta Treal con la
topologı́a canónica. La frontera de ∂(a, b) = (a, b) (a, b)c = [a, b] (−∞, a] ∪
[b, ∞) = {a, b}, etc.
Ejemplo 14.51. Regresemos al conjunto ℜ\Z. Observemos que
T
T
∂(ℜ\Z) = (ℜ\Z) (ℜ\Z)c = ℜ Z = Z.
Es decir, el conjunto ℜ\Z es un conjunto abierto, cuya cerradura es ℜ y su
frontera es Z. Esto también quiere decir que Z es un conjunto cerrado, pues es la
frontera de ℜ\Z.
Ejercicio 14.52. Demuestre que la frontera del conjunto de los racionales o
del conjunto de los irracionales son los reales.
Para terminar esta sección, vamos a definir un conjunto denso. Un conjunto es
denso si su cerradura es todo el espacio, esto es:
Definición 14.53. A es denso en X si A = X.
238
14. ESPACIOS TOPOLÓGICOS
Ejemplo 14.54. Cláramente ℜ\Z es denso en los reales, pues su cerradura son
los reales.
Comentario 14.55. Note que si A es un espacio métrico, A es denso si para
todo x ∈ X y para todo ǫ > 0 existe p ∈ A tal que p ∈ Bǫ (x).
3. Funciones Continuas
En esta sección vamos a introducir conceptos tı́picos de espacios normados
o métricos relacionados con funciones, pero usando sólo la topologı́a del espacio.
Vamos a iniciar con el concepto de continuidad de funciones en espacios topológicos.
Básicamente la idea es la misma que en espacios métricos, pero como aquı́ no
tenemos una distancia, tenemos que usar sólo la existencia de los abiertos. La
idea es entonces, que si podemos mapear un abierto, tan arbitrario (“pequeño”)
como sea, y éste es también abierto en el dominio, entonces la función es continua.
Formalmente se tiene:
Definición 14.56. Sean (X, τX ) y (Y, τy ) espacios topológicos. Se dice que el
mapeo f : X → Y x → f (x) es una función continua, si f −1 (V ) ∈ τX para todo
V ∈ τY , i.e. preimágenes de abiertos son abiertas.
Notación 14.57. Al conjunto de funciones continuas se denota por M ap(X, Y ) =
C 0 (X, Y ).
Dado que en un espacio métrico la topologı́a se construye con los abiertos del
espacio, podemos demostrar una serie de proposiciones en espacios topológicos que
después se pueden extender a espacios métricos o normados. Veamos la siguiente
proposición.
Proposición 14.58. Sean (X, τX ) y (Y, τY ) espacios topológicos f : X → Y,
función. Son equivalentes
1) f es continua.
2) Para todo x ∈ X y Wf (x) ∈ τY existe Vx ∈ τX tal que f (Vx ) ⊂ Wf (x)
3) f (A) ⊂ f (A) para todo A ⊂ X
4) f −1 (B) ⊂ f −1 (B) para todo B ⊂ Y
5) Si A es cerrado en Y implica que f −1 (a) es cerrado en X.
Demostración 14.59. 1) =⇒ 2) Sean x ∈ X y Wf (x) ⊂ τY ; como f es
continua x ∈ f −1 (Wf (x) ) ∈ τx y entonces existe Vx ∈ τX tal que Vx ⊂ f −1 (Wf (x) ),
se sigue entonces que f (Vx ) ⊂ Wf (x) .
2) =⇒ 3) Sea b ∈ A, entonces para todo Ub ∈ τX se sigue que Ub ∩ A 6= φ,
entonces φ 6= f (Ub ∩ A) ⊂ f (Ub ) ∩f (A). Sea Wf (b) ∈ τY arbitrario, por 2) existe
Vb ∈ τX con f (Vb ) ⊂ Wf (b) , por lo que f (Vb ) ∩ f (A) ⊂ Wf (b) ∩f (A) es decir
f (b) ∈ f (A).
−1
3) =⇒ 4) Sea a = f −1 (B) con B ⊂ Y ; por 3 f (A) ⊂ f (A)
= f (f (B)) ⊂ B,
ya que f f −1 (B) ⊂ B. Por lo tanto, también f −1 f (A) ⊂ f −1 (B) y como
A ⊂ f −1 f (A) tenemos A ⊂ f −1 (B); o sea f −1 (B) ⊂ f −1 (B).
4) =⇒ 5) Sea B cerrado en Y , por 4) f −1 (B) ⊂ f −1 (B) = f −1 (B) ⊂ f −1 (B)
por lo que f −1 (B) = f −1 (B), entonces f −1 (B) es cerrado en X.
5) =⇒ 1) Sea B ∈ τY , entonces B c es cerrado en Y , como f −1 (B c ) =
c
−1
(f (B))c , por 5) se tiene que f −1 (B) es cerrado en X, o sea f −1 (B) ∈ τX . 3. FUNCIONES CONTINUAS
239
Proposición 14.60. La composición de funciones continuas es continua.
Demostración 14.61. Sean (X, τX ) , (Y, τY ) y (Z, τz ) espacios y f : X →
Y, g : Y → Z funciones continuas. Se tiene que si U ′′ ∈ τz entonces g −1 (U ′′ ) ∈ τY
y por lo tanto f −1 (g −1 (U ′′ )) = f ◦ g (U ′′ ) ∈ τZ . Las funciones en espacios que son productos cartesianos también tienen un criterio de continuidad. Estas funciones son interesantes y serán usadas más adelante,
por ahora veamos este criterio de continuidad usando la siguiente proposición:
Proposición 14.62. Sean (X, τX ) , (Y, τY ) y (Z, τZ ) espacios y f : X × Y → Z
función. f es continua ssı́ para todo Wf (x,y) ∈ τz existe Ux ∈ τX y Vy ∈ τY tales
que f (Ux × Uy ) ⊂ Wf (x,y) .
Demostración 14.63. ⇐=) Sea Wf (x,y) ∈ τZ esto implica que existe Ux ∈
τX , Vy ∈ τY con f (Ux × Vy ) ⊂ Wf (x,y) con Ux × Vy ∈ τX × Y , esto implica que para
todo (x, y) ∈ X × Y existe Ux × Vy ∈ τX × Y tal que Ux × Vy ⊂ f −1 (Wf (x,y) ) por
lo que f −1 (Wf (x,y) ) ∈ τX×Y .
=⇒) Sea Wf (x,y) ∈ τZ , entonces f −1 (Wf (x,y) ) ∈ τX×Y esto implica que para
todo (x, y) ∈ f (Wf (x,y) ) existe Ux × Vy ∈ τX×Y tal que Ux × Vy ⊂ f −1 (Wf (x,y) ),
por tanto f (Ux × Vy ) ⊂ Wf (x,y) . Mas adelante, en la construcción de los haces, vamos a necesitar el uso de la
proyección, que es una función que mapea solo una parte de un producto cartesiano
de espacios topológicos. Vamos a introducir ahora este concepto.
Definición 14.64. Sea (X × Y, τX×Y ) espacio producto de los espacios (X, τX )
y (Y, τY ). A las funciones Πx : X×Y → X, (x, y) → x y Πy : X×Y → Y, (x, y) → y
se les llama las proyecciones de X × Y , ver figura 6.
Figure 6. La proyección del producto cartesiano de X y Y . El
mapeo va de X × Y a X, y mapea el punto (x, y) en x.
240
14. ESPACIOS TOPOLÓGICOS
Proposición 14.65. Πx y Πy son continuas.
Ejercicio 14.66. Demostrar la proposición.
Definición 14.67. Sea (A, τA ) subespacio topológico de (X, τX ). La inclusión
de A en X es la función identidad restringida a A , i.e.
i:A → X
x → i(x) ≡ id |X |A
También se denota como i : A ֒→ X.
Proposición 14.68. Sea f continua, f = X → Y y (A, τA ) subespacio topológico
de (X, τX ). Entonces la restricción de f a A es continua.
Ejercicio 14.69. Demostrar la proposición
Ejercicio 14.70. Demostar que i es continua.
El concepto más importante en espacios topológicos es tal vez éste que nos
da el concepto de isomorfismo entre ellos. Los isomorfismos aquı́ son llamados
homeomorfismos. Ahora vamos a introducirlos, para esto necesitamos primero el
concepto de función abierta. Iniciemos con éste.
Definición 14.71. Sea f : X → Y función. f se llama abierta si imagenes
de abiertos son abiertas, i.e. si para todo U ∈ τX se tiene que f (U ) ∈ τY .
Definición 14.72. Un homeomorfismo es una función continua, biyectiva y
abierta.
Esta difinición nos garantiza entonces que la inversa es una función continua y
abierta. Es decir:
Proposición 14.73. Sea f homeomorfismo, entonces f −1 es continua.
Demostración 14.74. Por ser biyectiva existe f −1 con f −1 ◦ f = Id |X . Por
ser abierta se sigue que f (U ) = V ∈ τY para todo U ∈ τx ya que la inversa de f −1
es f . De donde que f −1 es continua. Definición 14.75. Dos espacios topológicos se dicen homeomorfos si entre ellos existe un homeomorfismo. A las propiedades invariantes bajo homeomorfismos se les llama propiedad topológica.
Es decir, los homeomorfismos me dan un criterio para decir cuando dos espacios
topológicos son el mismo, desde el punto de vista de espacio topológico. Es más,
los homeomorfismos separan el conjunto de los espacios topológicos en clases de
equivalencia. Vamos a ver esto, primero veamos que la relación: dos espacios estan
relacionados entre si, si son homeomorfos, es una relación de equivalencia.
hom
Proposición 14.76. Sean (X, τX ), (Y, τY ), (Z, τZ ) espacios. La relación X ∼
Y “dos espacios son homeomorfos”, es una relación de equivalencia.
Ejercicio 14.77. Demostrar la proposición.
Entonces los espacios homeomórficos forman clases de equivalencia en las cuales
se conservan sus propiedades topológicas. Estas clases sirven para clasificar a los
espacios topológicos. Otra propiedad interesante y muy importante es el hecho que
los homeomorfismos con la operación de composición de funciones forma un grupo,
llamado el grupo de automorfismos. Veamos esto.
4. TOPOLOGÍA COCIENTE
241
Proposición 14.78. Sea (X, τX ) espacio topológico y
Aut (X) = {f | f : X − X homeomorfismo}. Entonces el par (Aut(X), ◦) es
un grupo llamado el grupo de automorfismos de X.
Ejercicio 14.79. Demostrar la proposición.
Para terminar esta sección veamos ahora el concepto de camino y trayectoria.
Estos conceptos son muy usados para definir geodésicas y conceptos relacionados
con estas. Formalmente, la definición de camino o trayectoria es:
Definición 14.80. Sea (X, τX ) espacio topológico e I ⊂ ℜ. A una función
c : I → X se le llama un camino o trayectoria en X.
Entonces, una curva es la imagen de una trayectoria, esto es:
Definición 14.81. Sea c ∈ C 0 (I, X). A la imagen de c se le llama la curva
de c.
Estos dos conceptos deben quedar claros, un camino es la función misma mientras que la curva es la imagen de la función. Son conceptos muy distintos, el primero
es un elemento del conjunto de funciones y el segundo es un subconjunto del codominio de la función. Por otro lado, una reparametrización es una composición de
la curva con un automorfismo monotono creciente del dominio I de ℜ de la curva,
es decir:
Definición 14.82. Sea ϕ ∈ Aut+ (I) = {f ∈ Aut(I) | f (t′ ) > f (t), t′ > t} y
c ∈ C 0 (I, X). A la función ϕ∗ : C 0 (I, X) → C 0 (I, X), c → ϕ∗ (c) = c ◦ ϕ se le
llama una reparametrización de c.
Lo interesante de este concepto es que las curvas (no los caminos) son invariantes ante estos automorfismos, es decir:
Proposición 14.83. Las curvas son invariantes bajo reparametrizaciones.
Demostración 14.84. Sea c ∈ C 0 (I, X) trayectoria y Γc = c(I) la curva
correspondiente. Entonces Γϕ∗(c) = ϕ∗ (c)(I) = c ◦ ϕ(I) = c(ϕ(I)) = c(I) = Γc . Ejemplo 14.85. Al camino c(t) = p
constante.
para todo t ∈ I se le llama camino
Ejemplo 14.86. Sea c : [0, 1] → X con c(0) = c(1) = p. A este camino se le
llama lazo o loop en X.
4. Topologı́a cociente
Imaginemos que podemos construir una función entre dos conjuntos y que el
dominio tiene una topologı́a. Entonces podemos mapear los abiertos del dominio
al codominio y definir estos como abiertos del codominio. Surge la pregunta si
ahora las imagenes de estos abiertos forman una topologı́a para el codominio. La
respuesta la podemos dar en la siguiente proposición.
Proposición 14.87. Sean (X, τX ) espacios Y conjunto y f : X → Y función
sobre. El conjunto τf = V ∈ P (Y ) | f −1 (V ) ∈ τX es una topologı́a para Y , llamada topologı́a cociente de Y respecto a f .
242
14. ESPACIOS TOPOLÓGICOS
Demostración 14.88. i) φ ∈ τf ya que f −1 (φ) = φ ∈ τX y Y esta en τf ya
que f es sobre y por lo tanto f −1 (Y ) = X ;
ii) Sean V1 , · · · , Vn ∈ τf , entonces f −1 (∪ni=1 Vi ) = ∪ni=1 f −1 (Vi ) ∈ τX se sigue
que ∩ni=1 Vi ∈ τf ya que cada f −1 (Vi ) ∈ τX ;
iii) Sea {Vα }α∈K con Vα ∈ τf . Entonces f −1 ( ∪ Vα ) = ∪ f −1 (Vα ) ∈ τX
α∈K
pues cada f −1 (Vα ) ∈ τX , se sigue entonces que ∪ Vα ∈ τf . α∈K
α∈K
Vamos a estudiar unos ejemplos de como podemos construir espacios topológicos
usando mapeos sobre. Para hacer esto, lo importante es construir la función sobre
con la cual construimos el espacio topológico del codominio. Sea (X, τX ) espacio
topológico y ∼ una relación de equivalencia en X. La función p = X → X/ ∼ es
una función sobre que asocia a cada elemento de X, x → [x] su clase. La topologı́a
τX/∼ = {V ∈ P (X/ ∼) | p−1 (V ) ∈ τX } es una topologı́a para el conjunto de clases
de equivancia X/∼.
Sea I × I = (x, y) ∈ ℜ2 | 0 ≤ x ≤ 1, 0 < y < 1 subespacio topológico de ℜ2 .
Entonces:
Ejemplo 14.89. Sea la relación de equivalencia pr1 q si p = q ∈ ℜ2 i.e. (x, y) =
(x , y ′ ) , ó si p 6= q (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y)) y la relación pr2 q como
p = q ó si p 6= q, (p, q) = ((0, y), (1, 1 − y)) ó ((1, y), (0, 1 − y)) . Gráficamente se
ve en las figura 7 y figura 8.
′
Figure 7. El producto cartesiano de los intervalos [1, 1] × [1, 1]
con la relación r1 , es topologicamente igual al cilindro.
Cilindro=
I × I/r1 , τI×I/r1
Cinta de Möbius=
I × I/r2 , τI×I/r2
2
Ejemplo 14.90. Sea I = (x, y) ∈ ℜ2 | 0 ≤ x, y ≤ 1 . Sea la relación pr3 q
si p = q, ó p 6= q, (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y)) y (p, q) = ((x, 0), (x, 1)) ó
((x, 1), (x, 0)). Y la relación pr4 q si p = q ó (p, q) = ((0, y), (1, y)) ó ((1, y), (0, y))
y (p, q) = ((x, 0), (1 − x, 1)) ó ((1 − x, 1), (x, 0)). Gráficamente se ve en las figura
9 y figura 10
2
2
Botella de Klein= I /r4 , τ 2
Toro= I /r3 , τ 2
I /r3
I /r4
5. ESPACIOS COMPACTOS
243
Figure 8. De la misma forma, el producto cartesiano de los intervalos [1, 1] × [1, 1] con la relación r2 , es topologicamente igual a
la cinta de Möbius
Figure 9. El producto cartesiano de los intervalos [1, 1] × [1, 1]
con la relación r3 , es topologicamente igual al Toro.
5. Espacios Compactos
Entre las nociones intuitivas que tenemos de conjuntos, existen dos clases que
se diferencian notablemente. Existen espacios como ℜ que no tienen fin y otros
como la esfera que son finitos. Por supuesto, desde el punto de vista matemático
podemos dar una diferenciacion de estos espacios, ya que no es lo mismo que un
conjunto no tenga fin o principio o que este conjunto sea simplemeten muy grande.
Para dar una noción concreta de estos conceptos, diremos que los conjuntos como
la esfera, son compactos. Basicamente la diferencia es que a la esfera la podemos
cubrir con un número finito de abiertos. La definición formal es:
Definición 14.91. Sean (X, τX ) espacio topológico y A ⊂ X. A es un conjunto compacto si toda cubierta U de A contiene una subcubierta finita.
244
14. ESPACIOS TOPOLÓGICOS
Figure 10. De la misma forma, el producto cartesiano de los intervalos [1, 1] × [1, 1] con la relación r4 , es topologicamente igual a
la Botella de Klein.
Proposición 14.92. Sean (X, τX ), (Y, τY ) espacios y f : X → Y función continua. Entonces la imagen de subconjuntos compactos de X son subconjuntos compactos de Y .
Demostración 14.93. Sea A subconjunto
compacto
de X y sea V = {Vα }α∈K
una cubierta de f (A), entonces V −1 = f −1 (Vα ) α∈K es una cubierta de A. Como
N
A es compacto, existe una cubierta finita de A, U = f −1 (Vj ) J=1 , subcubierta
−1
de V −1 . Como f f −1 (Vj ) ⊂ Vj tenemos que f (A) ⊂ f ∪N
(Vj ) ⊂ ∪N
j=1 f
j=1
N
f f −1 (Vj ) ⊂ ∪N
V
,
por
lo
que
{V
}
es
una
cubierta
finita
de
f
(A).
j J=1
j=1 j
El punto más importante de los espacio compacto es el hecho que:
Proposición 14.94. Ser espacio compacto es una propiedad topológica.
Demostración 14.95. Sólo daremos una idea de la demostración. Se desprende del hecho que si X es compacto, f (X) lo es y si f es homeomorfismo,
f −1 (X) también es compacto. En lo que sigue hablaremos de algunas propiedades de los espacios compactos
y de como se puede saber si un espacio es o no compacto. Por lo general no es fácil
demostrar que un espacio es o no compacto. Pero usando las dos siguientes proposiciones, de la segunda no daremos su demostración, se puede verificar la propiedad
de compacto en muchas ocaciones. Comencemos por la siguiente proposición.
Proposición 14.96. Si (X, τX ) es compacto y Y tiene la topologı́a cociente τf
con respecto a f : X → Y , sobre, entonces se sigue que (Y, τf ) es compacto.
Demostración 14.97. Como τY = τf , f es continua y como f es sobre
f (X) = Y . Entonces Y es imagen continua de un compacto por lo tanto es compacto. Proposición 14.98. [0, 1] ∈ ℜ es compacto.
Otra propiedad que ayuda a verificar si un espacio es o no compoacto es la
siquiente:
5. ESPACIOS COMPACTOS
245
Proposición 14.99. Todo subconjunto cerrado de un espacio compacto, es
compacto.
Demostración 14.100. Sea A subconjunto cerrado de X y sea U = {Uα }α∈J
una cubierta de A. A cerrado implica que Ac ∈ τX y Uext = {Uα , Ac }α∈J es
una cubierta de X, ya que A ⊂ ∪ Uα . Si X es compacto, entonces existe una
α∈J
n
subcubierta finita V de Uext . Vext = {Vi , Ac }i=1 que cubre X. Por tanto V =
{Vi }N
i=1 es cubierta finita de A, ya que para todo Vj ∈ Vext existe Ur ∈ Uext tal que
Vj = Ur , es decir, A es compacto. También es fácil imaginarse que el producto cartesiano de espacios compactos,
es compacto. Formalmente se tiene la siguiente proposición:
Proposición 14.101. El producto topológico (X × Y, τx×y ) es compacto sı́ cada
(X, τX ) y (Y, τy ) es compacto.
Demostración 14.102. Solo demostraremos una dirección. =⇒) Como X ×Y
es compacto, entonces Π1 : X × Y = X y Π2 : X × Y → Y son compactos, ya que
Π1 y Π2 son continuas. De estas propiedades resultan algunos ejemplos y resultados sencillos. Por
N
ejemplo tenemos que el n-cubo es compacto, i.e. I ⊂ ℜn es compacto.
Otro concepto relacionado con espacios compactos, es el concepto de conjunto
acotado, concepto que se puede dar en un espacio normado. Entonces podemos
definir conjuntos acotados en los reales, utilizando su norma canónica. Intuitivamente, un espacio compacto debe ser acotado, finito. Formalmente se tiene la
definición:
Definición 14.103. Sea A subconjunto de (ℜn , τℜn ) y n ∈ Z + . Se dice que A
es un
acotado si para todo x = (x1 , · · · , xn ) ∈ A, existe K ∈ ℜ+ , tal
iconjunto
que x ≤ K para todo i = 1, · · · , xm .
Con el siguiente teorema podemos relacionar entonces ambos conceptos.
Teorema 14.104 (de Heine-Borel). Todo subconjunto de ℜn cerrado y acotado,
es compacto.
n hom
Demostración 14.105. A acotado ⇒ A ⊂ [−K, K]
n
cerrado y [−K, K] compacto implica A compacto. n
≅ I para algún K. A
Ahora usemos lo anterior para verificar si algunos espacios son compactos,
veamos algunos ejemplos.
n
Ejemplo 14.106. I ⊂ ℜn es cerrado y acotado, por lo tanto es compacto.
etc.
Ejemplo 14.107. S n ⊂ Rn+1 es cerrado y acotado, por lo tanto es compacto,
Otro concepto interesante, que sólo mencionaremos, es el de espacios paracompactos. Para definirlo, es necesario introducir la siguiente definición.
Definición 14.108. Una familia F de subconjuntos de (X, τX ) es localmente
finita o finita por vecindades, si para todo x ∈ X existe Ux ∈ τX tal que Ux
intersecta a lo más un número finito de elementos de F .
246
14. ESPACIOS TOPOLÓGICOS
Definición 14.109. Un refinamiento de U es una cubierta V = {Vβ }β∈K
de (X, τX ) tel que para todo Vβ ∈ V existe Uα ∈ U con Vβ ⊂ Uα . Se denota por
{Vβ }β∈J < {Uα }α∈J .
Proposición 14.110. Toda subcubierta de una cubierta es un refinamiento.
Demostración 14.111. Sea V una subcubierta de U, esto implica que para
todo Vβ ∈ V existe Uα ∈ U con Vβ = Uα ⊂ Uα . Definición 14.112. Un espacio es paracompacto si toda cubierta tiene un
refinamiento finito por vecindades.
Este concepto, en cierta forma, es más general que el concepto de espacios
compactos, ya que:
Proposición 14.113. Todo espacio compacto es paracompacto.
Demostración 14.114. X compacto implica que toda cubierta U de X tiene
una subcubierta finita, esto quiere decir que cualquier vecindad Ux de x ∈ X intersecta a lo más un número finito de elementos del refinamiento V de U. Los espacios que no son compactos, se pueden en ocaciones, compactificar. La
forma más simple de entenderlo es dando un ejemplo sencillo. Imaginemos la recta
real, la cual se extiende indefinidamente hacia los números positivos y negativos.
Ahora tomemos la recta real y unamos los puntos extremos, tanto de lado negativo
como del lado positivo. Lo que se tendrá es un cı́rculo, que puede ser de radio 1,
por simplicidad. Este cı́rculo es una forma compacta de escribir la recta real, donde
ahora si tenemos un número que representa el infinito (en los reales, el infinito no es
un número, es solo un concepto para designar muy grande). Formalmente se puede
hacer este proceso, siguiendo los pasos de la siguiente proposición que enunciaremos
sin demostración.
∧
Proposición 14.115. Sea (X, τX ) espacio topológico y ∗ ∈
/ X. Sea τ = τX ∪
{V ∪ {∗}}V ∈K con K = {abiertos con complemento compacto en X}. Entonces
∧
∧
1) τ es una topologı́a para X = X ∪ {∗}
∧ ∧
2) (X, τX ) es subespacio topológico de X, τ
∧ ∧
3) X, τ es compacto
∧ ∧
4) X es denso en X, τ si X no es compacto.
∧
Notación 14.116. A la topologı́a τ = τX ∪ {V ∪ {∗}}V ∈K con K = {abiertos
con complemento compacto en X} se le llama la compactificación por un punto
de (X, τX ) o simplemente compactificación de X.
Ahora veamos el ejmplo de la compactificación de la recta real formalmente. Lo
que vamos a hacer es agregarle un punto a la recta real, que podemos llamar también
el infinito, pero puede ser lo que sea. Y luego definimos un homeomorfismo que vaya
del cı́rculo a la recta real. Ası́ demostramos que el cı́rculo es una compactificación
de la recta real. Aquı́ estudiaremos el ejemplo más general de la compactificación
de ℜn , esto es:
5. ESPACIOS COMPACTOS
247
∧
Ejemplo 14.117. La compactificación por un punto de ℜn está dada por ℜn =
n
ℜ ∪ {∞}, veamos esto.
Consideremos la función:
∧
σ : S n →ℜn
es decir
x1 , · · · , xn / 1 − xn+1
si x 6= (0, · · · , 0, 1)
σ : x ,··· ,x
→
∞
si x = (0, · · · , 0, 1)
el cual es un homeomorfismo, con inversa σ −1 : ℜ̂n → S n dada por
1
2x1 , · · · , 2xn , (x1 )2 + · · · + (xn )2 − 1
x1 , · · · , xn
→ 1+(x1 )2 +···+(x
n )2
−1
σ :
∞
→ (0, · · · , 0, 1)
1
n+1
hom
hom
hom
Entonces S n ∼
=
= ℜ̂ y la esfera S 2 ∼
= ℜ̂n . Ejemplos de esto son el cı́rculo S 1 ∼
2
2
∼
ℜ̂ = ℜ ∪ {∞} = C ∪ {∞} llamada esfera de Riemann, etc. A la función σ se
le llama proyección estereográfica . Vean la figura 11
Figure 11. La proyección estereográfica en el plano. Esta función
proyecta los puntos del cı́rculo 1 -1 en la lı́nea recta. De la misma
forma, la proyección estereográfica proyecta 1 -1 cualquier esfera
de dimensión arbitraria (finita) en un plano de la misma dimensión.
Para terminar esta sección daremos una clasificación interesante de los espacios
topológicos según su estructura.
Definición 14.118. Sea(X, τX ) espacio topológico.
· Se dice que X es espacio T0 si para todo x, y ∈ X , x 6= y, existe Ux con
y∈
/ Ux ó existe Uy con x ∈
/ Uy
· Se dice que X es espacio T1 si para todo x, y ∈ X, x 6= y, existe Ux y Uy
con y ∈
/ Ux y x ∈
/ Uy
· Se dice que X es espacio T2 o Hausdorff si para todo x, y ∈ X, x 6= y,
existe Ux , Uy con Ux ∩ Uy = φ
· Se dice que X es espacio T3 o espacio regular, si X es T1 y si para todo
x ∈ X y F cerrado en X con x ∈
/ F , existe Ux y U en τX con F ⊂ U y Ux ∩ U = φ
248
14. ESPACIOS TOPOLÓGICOS
· Se dice que X es espacio T4 o espacio normal , si X es T1 y para todo
F, G cerrados disjuntos en X, existe U, V ∈ τX tal que U ∩ V = φ y F ⊂ U, G ⊂ V ,
ver figura 12.
Figure 12. Clasificación de los espacios topológicos.
Ejercicio 14.119. Muestre que todo espacio T2 es T1
Ejercicio 14.120. Muestre que todo espacio T1 es T0
Ejercicio 14.121. Muestre que todo espacio metrizables es T2
Ejercicio 14.122. Muestre que todo espacio métrico es Hausdorff.
6. Espacios Conexos
Un espacio topológico puede ser también hecho de piezas separadas, o pedazos
sin unión. Cuando los espacios son hechos de una sola pieza, se dice que son espacios conexos. Para definir los espacios conexos es más sencillo definir los espacios
disconexos, es decir:
6. ESPACIOS CONEXOS
249
Definición 14.123. Un espacio topológico (X, τX ) es disconexo si existen
A, B ∈ τX tales que A, B 6= φ, A ∪ B = X y A ∩ B = φ.
Definición 14.124. Un espacio es conexo si no es disconexo.
Definición 14.125. Sea (X, τX ) espacio topológico y A ⊂ X (subespacio). A
es conexo si lo es como subespacio topológico de X.
Algunos ejemplos simples son:
Ejemplo 14.126. El espacio de Sierpinski es conexo, ya que X = {a, b} y
τX = {φ, {a, b} , {a}}, siempre, ya que {a, b} ∪ {a} = X y {a, b} ∩ {a} =
6 φ.
Ejemplo 14.127. La topologı́a discreta es disconexa, ya que para todo A 6= φ,
X con A ∈ P (X), Ac ∈ P (X) y A ∩ Ac = φ, con A ∪ Ac = X
Por definición, en un espacio topológico el vacio y todo el espacio son abiertos
y cerrados a la vez. En base a esto, un criterio para decidir si un espacio es conexo,
es el siguiente.
Proposición 14.128. Sea (X, τX ) espacio. X es conexo, ssı́ los únicos abiertos
y cerrados a la vez son X y φ, además no existe f ∈ C 0 (X, {0, 1}) sobre.
Finalmente, ser conexo es también una propiedad topolólogica. Para ver esto,
veamos la siguiente proposición.
Proposición 14.129. La imagen continua de conexos es conexa.
Demostración 14.130. Sea f : X → Y continua y (X, τX ) espacio conexo.
Supongamos que f (X), τf (x) ⊂ (Y, τY ) no es conexo. Entonces existe g : f (X) →
{0, 1} continua y sobre y por lo tanto g ◦f ∈ C 0 (X, {0, 1}) y es sobre, lo que implica
que (X, τX ) no es conexo, lo que contradice la hipótesis. Proposición 14.131. Ser conexo es una propiedad topológica.
Demostración 14.132. Basta tomar un homeomorfismo, como es sobre y continuo, la imagen de un conexo será conexa y lo mismo para la inversa. Vamos a ver algunos ejemplos representativos:
Ejemplo 14.133. Todos los intervalos en ℜ son conexos.
hom
Ejemplo 14.134. ℜ es conexo, ya que ℜ ∼
= (−1, 1) que es conexo.
Ejemplo 14.135. S 1 es conexo ya que f : [0, 1] → S 1 , τ → (cos (2πt) , sen (2πt))
es continua.
CHAPTER 15
VARIEDADES DIFERENCIALES
1. Variedades
Las variedades son espacios topológicos que son localmente igual a ℜn . Este
hecho permite entonces utilizar conceptos que conocemos de ℜn y usarlos en la variedad, al menos localmente (es decir, al menos para cada abierto). Por ejemplo, la
diferencial es un concepto bien importante de ℜn porque nos da un modelo simple
de movimiento. El movimiento es la propiedad más importante de todo objeto en
la naturaleza, de hecho la fı́sica se dedica a estudiar principalmente esta caracteristica, el movimiento. Ya sea el movimiento de un objeto o el movimiento de los
campos en el espacio tiempo o el movimiento de las cantidades termodinámicas en
un sólido. Esa es la razón de la importancia del cálculo diferencial, tanto en ciencias exactas, como en su aplicación más directa, que es la tecnologı́a avanzada. Las
variedades diferenciales son una generalización del cálculo diferencial a variedades,
que llamamos variedades diferenciales. En la actualidad, las variedades diferenciales tienen aplicación en un gran número de áreas de la ciencia y la tecnologı́a.
Por sólo nombrar algunas, diremos que el mejor modelo que se tiene hasta el momento del espacio tiempo es el de una variedad diferenciable. El estudio de teorı́a
de campos en espacios curvos necesita para su mejor comprensión de las variedades
diferenciables. La función de calor en termodinámica es una fafiana, es decir, una
1-forma, que es un concepto formal de variedades diferenciables. O el estudio moderno del control automático en ingenierı́a, usa intensivamente la herramienta de las
variedades diferenciales, etc. En este capı́tulo daremos los conceptos más importantes de las variedades y de las variedades diferenciables. Vamos a empezar por
su definición.
Definición 15.1. Una variedad real de dimensión n es un espacio topológico
de Hausdorff (M n , τM N ), tal que para todo elemento p ∈ M n existe una terna
c = (Up , ψ, V ) donde Up ∈ τM n , V ∈ τℜn y ψ : Up → V , homeomorfismo. Ver
figura 1.
Es decir, una variedad es un espacio topológico que localmente es ℜn (o sea,
para todo p ∈ M n , se tiene que Up ∈ τM n , es homeomorfo a ℜn ). Si en la definición
cambiamos real por complejo, tenemos variedades complejas de dimensión n. Por
hom
ejemplo, C ∼
= ℜ2 es una variedad compleja de dimensión uno.
Para trabajar con variedades se acostumbra definir algunos conceptos de la
variedad, que estaremos usando en el futuro.
Definición 15.2. Sea M n una variedad, a:
· cα = (Uα , ψα , Vα ) , ∪ Uα = M n se le denomina carta sobre M n
α∈J
· Uα se le llama dominio de la carta.
· (Uα , ψα ) se le llama sistema de coordenadas sobre Uα
251
252
15. VARIEDADES DIFERENCIALES
Figure 1. Una variedad real de dimensión n es un espacio
topológico de Hausdorff localmente homeomorfo a ℜn .
· ψα−1 , Vα se le llama parametrización de Uα
· Vα = ψα (Uα ) se le llama imagen
de la cartacα
· ri : ℜn → ℜ, λ1 , · · · , λn → ri λ1 , · · · , λn = λi se llama la i-esima
función coordenada sobre ℜn
· xiα := ri ◦ ψα es la i-esima función coordenada del sistema de coordenadas
· Sean cα y cβ dos cartas cα = (Uα , ψα , Vα ) y cβ = (Uρ , ψβ , Vβ ). A las funciones
ψαβ := ψβ ◦ ψα−1 : ψα (Uα ∩ Uβ ) → ψβ (Uα ∩ Uβ ) y se les llama funciones de
transición, donde ψαβ es un homeomorfismo, ver figura 2.
Comentario 15.3. Las funciones x1α , · · · , xnα : Uα → ℜn
p → x1α , · · · , xnα (p)
se pueden representar como ψα = x1α , · · · , xnα
Comentario 15.4. Todos los conceptos de la definición 15.2 dependen de los
abiertos del espacio topológico. Se dice entonces que son conceptos locales.
Es decir, cuando hablemos de algún concepto local, significa que este concepto
vale en los abiertos del espacio. Veamos algunos ejemplos de variedades.
1. VARIEDADES
253
Figure 2. En esta figura se muestran dos cartas, con sus dominios,
sus sistemas coordenados, sus imágenes y sus funciones de transición.
Ejemplo 15.5. (ℜ, τℜn ) es una variedad real de dimensión n con una sola carta
c = (ℜn , id|ℜn , ℜn ) .
Ejemplo 15.6 (Pelota). Vamos a estudiar un ejemplo quevamos a utilizar a
lo largo de estos capı́tulos. Se trata de las pelotas o S 2 , τS 2 , con su topologı́a
heredada de ℜ3 . La pelota es una 3-esfera y es una variedad 2-dimesional real que
al menos tiene dos cartas. Estas son:
c1 = U1 , σ+ , ℜ2 con U1 = S 2 \ {(0, 0, 1)} .
donde el homeomorfismo σ+ esta definido como:
σ+ (x, y, z) =
cuya inversa esta dada por:
1
(x, y)
1−z
1
2x, 2y, x2 + y 2 − 1
2
2
1+x +y
Análogamente, la segunda carta, ahora sin el polo sur, esta dada por:
−1
σ+
(x, y) =
c2 = U2 , σ− , ℜ2
con U2 = S 2 \ {(0, 0, −1)} .
254
15. VARIEDADES DIFERENCIALES
donde el homeomorfismo σ− esta definido como:
σ− (x, y, z) =
1
(x, y)
1+z
cuya inversa esta dada por:
1
2x, 2y, −x2 − y 2 + 1
2
2
1+x +y
2
Entonces U1 ∪ U2 = S y σ+ y σ− son homeomorfismos. A σ+ se le llama la
proyección estereográfica desde el norte y a σ− desde el sur.
−1
σ−
(x, y) =
Ejemplo 15.7 (Esferas). Vamos ahora a generalizar el ejemplo anterior a
cualquier dimensión, y formemos la variedad de las esferas. La esfera con su
topologı́a heredada de ℜn , es el espacio topológico (S n , τS n ). La n-esfera es una
variedad n-dimesional, real que al menos tiene dos cartas. Estas son:
c1 = (U1 , σ+ , V1 ) con U1 = S n \ {(0, · · · , 0, 1)} ,
V1 = ℜn
donde el homeomorfismo σ+ esta definido como:
σ+ x1 , · · · , xn+1 =
cuya inversa esta dada por:
−1
x1 , · · · , xn =
σ+
1
12
1
x1 , · · · , xn
n+1
1−x
2
2x1 , · · · , 2xn , x1 + · · · + xn2 − 1
1 + x + · · · + xn 2
Hay que comparar estos homeomorfismos con los de la compactificación de ℜn
en el ejemplo 14.117. Analogamente, la segunda carta, ahora sin el polo sur, esta
dada por:
c2 = (U2 , σ− , V2 ) con U2 = S n \ {(0, · · · , 0, −1)} ,
V2 = ℜn
donde el homeomorfismo σ− esta definido como:
σ− x1 , · · · , xn+1 =
cuya inversa esta dada por:
−1
x1 , · · · , xn =
σ−
1
1
x1 , · · · , xn
1 + xn+1
2
2x1 , · · · , 2xn , −x1 − · · · − xn2 + 1
1 + x1 2 + · · · + xn 2
Entonces U1 ∪ U2 = S n y σ+ y σ− son homeomorfismos. Igual que en el caso
de las pelotas, a σ+ se le llama la proyección estereográfica desde el norte y a
σ− desde el sur.
En lo que sigue, vamos a trasladar el concepto de diferencial a la variedad
utilizando los homeomofismos de ésta en ℜn . Como sabemos como diferenciar en
ℜn , podemos definir diferenciales en la variedad. Cuando esto se puede, se dice que
la variedad es suave. Recordemos la definición de suave en ℜn .
Definición 15.8. Sean U y V abiertos de ℜn y ℜm respectivamente y f : U →
V . Se dice que f es suave si ri ◦ f : U → ℜ tiene derivadas de todos los órdenes.
1. VARIEDADES
255
Vamos a entender lo que es una variedad diferenciable. En una forma simple se
puede decir que una variedad diferenciable es basicamente una variedad en donde
las funciones de transición son suaves. Otra manera de decirlo es la siguiente.
Dos cartas se dicen compatibles si su función de transición es suave, es decir, una
variedad se dice diferenciable si esta cubierta con cartas compatibles. Formalmente
se tiene:
Definición 15.9. Dos cartas cα y cβ son compatibles si
i) Uα ∩ Uβ = φ ó
ii) Uα ∩ Uβ 6= φ y las funciones de transición son suaves.
Definición 15.10. Un atlas sobre M n es una colección de cartas compatibles
que cubran M n .
Definición 15.11. Una variedad real diferenciable ó suave de dimensión
n es un par (M n , A) donde M n es una variedad real de dimensión n y A es un
atlas sobre M n , ver figura 3.
Figure 3. Una variedad real diferenciable suave de dimensión n
es una variedad real de dimensión n en donde las funciones de
transición son suaves.
Definición 15.12. Dos atlas A y A′ sobre M n son equivalentes si cα y c′β
son compatibles para toda cα ∈ A y c′β ∈ A′ .
256
15. VARIEDADES DIFERENCIALES
Si tomamos todo el conjunto de atlas sobre M n , la relación A ∼ A′ con A
es equivalente a A′ , es una relación de equivalencia, la cual separa el conjunto de
cartas equivalentes en clases de equivalencia. Si solo usamos los representantes de
las clases, lo que se tiene es una estructura direrenciable.
Definición 15.13. [A], el conjunto de clases de atlas sobre M n se llama una
estructura diferenciable sobre M n
Intiutivamente, una variedad suave es aquella que tiene una forma suave, es
decir, sin aristas o puntas como las del cuadrado o el cubo, sino es suave como el
cı́rculo o la esfera.
Ejercicio 15.14. Sean (M n , A) y (N n , B) variedades diferenciables. Demuestre
que (M n × N n , A × B) es variedad diferenciable.
Ejercicio 15.15. Sea (S n , A) , A = {c1 , c2 } del ejercicio 15.7 de esferas. Demuestre que (S n , A) es variedad diferenciable.
2. Funciones suaves
El siguiente paso es definir la diferencial en una variedad diferenciable. Para
hacer esto, lo que se acostumbra es transladar a ℜn por medio de los homeomorfismos, la diferenciabilidad de una función. Vamos a iniciar con la definición de
diferencial de una función.
Definición 15.16. Sea f : M n → ℜ una función en una variedad (M n , A). f
es suave o diferenciable si f ◦ ψα−1 : ψα (Uα ) → ℜ es suave para toda carta de
A, ver figura 4.
Es decir, una función f que va de la variedad a los reales es suave, si su función
correspondiente, la que va de ℜn a los reales, es suave. Para analizar la función f
entonces, es necesario estudiar su función f ◦ ψα−1 correspondiente.
Notación 15.17. Se denota al conjunto de funciones suaves por C ∞ (M n , ℜ)
ó al conjunto de funciones suaves en la vecindad de x por C ∞ (M n , x, ℜ)
Comentario 15.18. Observe que
a) (C ∞ (M n , ℜ) , +, ·, ℜ, ·) es un álgebra conmutativa con unidad.
b) (C ∞ (M n , ℜ) , +, ·) es anillo
c) (ℜ, C ∞ (M n , ℜ) , +, ·) es espacio vectorial.
Definición 15.19. Si f es suave en todo punto x ∈ W ⊂ M n , se dice que f
es una función suave en W.
Proposición 15.20. f suave implica f continua.
Demostración 15.21. Sin dem. En base a la definición de una función podemos definir la diferencial de una
función vectorial. Primero introduciremos la definición formal y luego explicaremos
con cuidado el significado de esta.
Definición 15.22. Sean M m y N n variedades y F : M m → N n función. F es
suave si para toda f ∈ C ∞ (N n , ℜ) F ∗ : C ∞ (N n , ℜ) → C ∞ (M m , ℜ) F ∗ (f ) =
f ◦ F es suave.
Para simplificar la notación es conveniente definir el full-back de una función.
2. FUNCIONES SUAVES
257
Figure 4. Esta figura muestra la representación de una función
f suave en una variedad de dimensión n.
Notación 15.23. A F ∗ se le llama imagen recı́proca o “full-back” de f
y se denota al conjunto de “full backs” como C ∞ (M m , N n ), ver figura 5.
Figure 5. La representación del Full-back F ∗ de una función F .
Como en el caso de una función de una variedad a los reales, la diferenciabilidad
de una función que va de una variedad a otra se traduce a la diferenciabilidad de
la función correspondiente, en este caso es la función f ◦ F , llamado el full-back,
258
15. VARIEDADES DIFERENCIALES
que va de la variedad a los reales. Ası́ podemos ver su diferenciabilidad tomando
en cuenta la definición 15.16 anterior.
Una consecuencia interesante de las funciones suaves es que la composición de
funciones suaves es también suave.
Proposición 15.24. La composición de funciones suaves es suave.
Demostración 15.25. Sean M m , N n y S s variedades y F : M m → N n , G :
N → S s y f : S s → ℜ funciones suaves. Entonces, G suave implica G∗ (f ) =
f ◦G ∈ C ∞ (N n , ℜ) es suave y F suave implica a su vez que F ∗ (G∗ (f )) = G∗ (f )◦F
∗
= (f ◦ G) ◦ F = f ◦ (G ◦ F ) = (G ◦ F ) (f ) es suave. Entonces G ◦ F es suave, se
∗
tiene que (G ◦ F ) = F ∗ ◦ G∗ . n
Ejercicio 15.26. Sea cα = (Uα , ψα , Vα ) carta sobre M n variedad. Mostrar
que ψα es suave y xiα = ri ◦ ψα es suave.
Ejercicio 15.27. Demuestre que funciones suaves entre variedades son continuas.
Ahora podemos definir los isomorfismos de variedades diferenciables, aquı́ son
llamados difeomorfismos. Su definición es clara.
Definición 15.28. Sea F ∈ C ∞ (M m , N n ) biyectiva. F se dice difeomorfismo
si F −1 ∈ C ∞ (N n , M m ).
Definición 15.29. Dos variedades se dicen difeomórficas si existe un difeodif
morfismo entre ellas. Se denota M m ∼
= N n.
Notación 15.30. Si dos variedades M m y N n son difeomórficas, se denota
dif
como M m ∼
= N n.
dif
La relación M m ∼ N n si M m y N n son difeomórficas M m ∼
= N n , es de
nuevo una relación de equivalencia. Entonces las variedades difeomórficas están
clasificadas en clases de equivalencia, lo cual ayuda mucho para su estudio.
3. Vectores Tangentes.
En esta sección vamos a construir los vectores tangentes a una variedad diferenciable. Esta construcción tiene varios objetivos, pero el más importante es que
con los vectores tangente podemos construir un espacio vectorial en cada punto de
la variedad. A este espacio se le llama el espacio tangente. Es necesario construir
tantos vectores base del espacio tangente a la variedad diferenciable como la dimensión de la variedad, o sea, tantos como la dimensión al espacio ℜn al cual la
variedad diferenciable es homeomorfica. Ya construido el espacio tangente podemos
construir el dual a este espacio vectorial, o sea, el espacio de las transformaciones
lineales en el espacio tangente. A este espacio se le llama el espacio contangente de
la variedad. Estos dos espacios son muy importantes en modelos del espacio tiempo,
ya que la métrica de una variedad, es un elemento del espacio contangente, como
veremos más adelante. Para simplificar un poco, cuando hablemos de variedad,
vamos a referirnos realmente a variedad diferenciable, aunque ya no se especifique
en el texto. Vamos a iniciar con la definición de vector tangente a una variedad.
3. VECTORES TANGENTES.
259
Definición 15.31. Sea M n variedad y x ∈ M n . Un vector tangente a la
variedad en x ∈ M n es una función vx : C ∞ (M n , x, ℜ) → ℜ tal que para una
carta c := (U, ψ, V ) ∈ A con x ∈ U , existe (a1 , · · · , an ) ∈ ℜn tal que para toda
n
P
ai ∂r∂ i f ◦ ψ −1 ψ(x) (ver figura 6).
f ∈ C ∞ (M n , x, ℜ) se cumple vx (f ) =
i=1
Figure 6. El vector tangente formado por la función f y el espacio
tangente formado por este vector tangente.
Vamos a entender la definición. Primero notemos que la función f ◦ ψ −1 |ψ(x)
es una función que va de ℜn a los reales y esta evaluada en el punto ψ(x). Por
tanto sabemos tratar con ella. También sabemos que el gradiente de una función
en ℜn es un vector tangente a la superficie que forma la función. Es por eso que
podemos interpretrar a la función vx (f ) como un vector tengente a la variedad.
Notación 15.32. Al conjunto de vectores tangentes sobre M n en x ∈ M n se
le denota por Tx M n y se le llama espacio tangente en x.
∂ Notación 15.33. Al vector con la u-upla (0, · · · , 1, 0, · · · ) se le denota ∂x
i
x
.
de tal forma que ∂ i (f ) := ∂ i f ◦ ψ −1 ∂x
x
∂ i
∂r
ψ(x)
n
∂x x i=1,··· ,n es entonces una base de Tx M , todo vector vx se
n
P
∂ . Sea xi = ri ◦ ψ ∈ C ∞ (M n , x, ℜ) observemos que
ai ∂x
vx =
i
x
i=1
El conjunto
escribe como
∂
∂
∂ (xj ) = i xj ◦ ψ −1 ψ(x) =
rj ψ = δij .
i
(x )
∂x x
∂r
∂ri
La función vx es una derivación, es decir, cumple con la ley de superposición y con
la regla de Leibnitz, esto es:
Proposición 15.34. vx ∈ Tx M n es una derivación, es decir:
i) vx (f + g) = vx (f ) + vx (g)
ii) vx (λf ) = λvx (f )
iii) vx (f g) = vx (f ) g(x) + f (x) vx (g) para todo f, g ∈ C ∞ (M n , x, ℜ) y para
todo λ ∈ ℜ.
Ejercicio 15.35. Demostrar la proposición.
Solo queda ver que el espacio formado por los vectores tangentes es, como se
espera, un espacio vectorial. Este se demuestra en la siguiente proposición.
260
15. VARIEDADES DIFERENCIALES
Proposición 15.36. La estructura (ℜ, Tx M n , +, ·) es un espacio vectorial de
dimensión n, con
1.- (vx + wx ) (f ) = vx (f ) + wx (f )
2.- (λvx ) (f ) = λ (v
x(f )) .
∂ es una base del espacio vectorial llamado base
El conjunto ∂x
i
x i=1,··· ,n
coordenada.
Ejercicio 15.37. Demuestren la proposición anterior.
′
′
′
n
Comentario
Observen
si (U, ϕ, V ) y (U , ψ , V ) son cartas de M
que
∂15.38.
∂ en x, entonces ∂xi x i=1,··· ,n y ∂x′i x i=1,··· ,n son bases del espacio tangente de
la variedad en x. Se tiene que
n
n
X
X
∂ j ∂ k
k
α
αji δjk = αki ,
x
=
x
=
i
j
∂x′i x
∂x
x
j=1
j=1
es decir
n
X
∂ ∂ ∂ j
.
=
x
∂x′i x j=1 ∂x′i x
∂xj x
El resultado anterior nos da una fórmula, como la regla de la cádena, para
cambiar de homeomorfismo en la variedad, o sea, para cambiar de sistema de coordenadas. En el lenguaje de variedades, hacer un cambio de coordenadas significa
cambiar de homeomorfismo de la variedad a los reales. Hay otro tipo de cambio de
coordenadas que tiene un significado dinámico, pero de eso no platicaremos aqui.
Algunos ejemplos simples de variedades son los siguientes.
Ejemplo 15.39. La variedad (ℜn , A = {(ℜn , id|ℜn , ℜn )}). Como ψ = id|ℜn
se sigue que xi = ri ◦ id|ℜn = ri entonces
n
n
X
X
∂
i ∂ ai i .
a
=
vx =
i
∂r x i=1 ∂r
i=1
iso
En tal caso Tx ℜn ∼
= ℜn , donde el isomorfismo esta dado por la función iso definida
n
P
ai ∂r∂ i → a1 , · · · , an
como iso : Tx ℜn → ℜn ,
i=1
Ejemplo 15.40. Sean x = (x1 , · · · , xn+1 ) y vx = (vx1 , · · · , vxn+1 ). El espacio
tangente de S n es
)
(
n+1
X
i i
n
n+1
x vx = 0
x ∈ S n ⊂ ℜn−1 .
Tx S = vx ∈ ℜ
| x · vx =
i=1
La demostración detallada de esto la veremos más adelante.
4. Uno formas
En todo espacio vectorial se pueden definir transformaciones lineales que forman
a la vez un espacio vectorial de la misma dimensión, llamado el espacio dual (ver
capı́tulo 3). Entoces podemos formar el conjunto de transformaciones lineales en
el espacio tangente a una variedad y formar el espacio dual. A este espacio se le
llama espacio contangente y a sus elementos, las transformaciones lineales, se les
llama formas. Vamos a ver todo esto formalmente.
Sean M m y N n variedades y F ∈ C ∞ (M m , N n ) con x ∈ M m .
4. UNO FORMAS
261
Definición 15.41. La diferencial de F en x es la función definida por
dFx : Tx M m → TF (x) N n
vx
→ dFx (vx ) : C ∞ (N n , F (x) , ℜ) → ℜ
g
→ dFx (vx ) (g) := vx (F ∗ (g))
ver figura 7.
Notación 15.42. Si denotamos dFx = Fx∗ , podemos escribir
Fx∗ (vx ) (g) := vx (F ∗ (g))
Notación 15.43. También lo podemos denotar como
dFx (vx ) (g) = vx (g ◦ F ) = vx ◦ F ∗ (g)
ó
dFx (vx ) = vx ◦ F ∗
Veamos con cuidado el significado de la diferencial de una función. Sea c =
(U, ψ, V ) carta de M m que contiene a x ∈ U ⊂ M m y C ′ = (W, ψ, V ′ ) carta en
m
P
∂ N n que contiene a F (x) ∈ W ⊂ N n . Sea vx ∈ Tx M m con vx =
ai ∂x
y sea
i
x
z=1
g ∈ C ∞ (N n , F (x) , ℜ). Vamos a escribir explicitamente la definición anterior en
términos de las cantidades como las leemos en ℜn , para poder entender mejor el
significado de la diferencial. Entonces,
dFx (vx ) (g) = vx (g ◦ F )
!
m
X
∂ (g ◦ F )
ai
=
∂xi x
i=1
=
m
X
ai
i=1
=
m
X
ai
i=1
∂
g ◦ F ◦ ϕ−1 ϕ(x)
i
∂r
∂
g ◦ ψ −1 ◦ ψ ◦ F ◦ ϕ−1 ϕ(x)
∂ri
n
m
X
X
∂
∂
ai
=
g ◦ ψ −1 ψ◦F
sj ◦ ψ ◦ F ◦ ϕ−1 ϕ(x)
j
i
(x)
∂s
∂r
i=1 j=1
m X
n
X
∂ ∂ ai
=
(g)
yj ◦ F
∂y j F (x)
∂xi x
i=1 j=1
!
m
n
X
X
∂ i ∂ j
a
=
(g)
y ◦F
∂xi x
∂y j F (x)
i=1
j=1
n
X
∂ (g)
=
vx y j ◦ F
∂y j F (x)
J=1
Vean la figura 8. Podemos escribir
n
X
j ∂ (dFx (vx ))
dFx (vx ) =
∂y j F (x)
j=1
j
de donde se sigue que (dFx (vx )) = vx y j ◦ F
262
15. VARIEDADES DIFERENCIALES
Figure 7. La diferencial dF de una función F . La diferencial de
F es un mapeo entre los espacios tangente de la variedad en x y
de la variedad imagen en F (x).
Figure 8. Figura que representa la construcción de la diferencial
de F . Aquı́ se representan las variedades y mapeos que toman
parte en la explicación de la definición.
Sólo falta demostrar que efectivamente la diferencial dFx es una transformación
lineal. Esta demostración la dejaremos como ejercicio.
Ejercicio 15.44. Demostrar que dFx es lineal.
Para poder decir que la diferencial dFx es realmente una diferencial, serı́a de
esperarse que se cumpliera la regla de la cadena. Este es el caso, vamos a demostrar
la siguiente proposición.
Proposición 15.45 (La regla de la cadena). d (G ◦ F )x = dGF (x) ◦ dFx
4. UNO FORMAS
263
Demostración 15.46. Sea M m , N n y S s variedades y F ∈ C ∞ (M m , N n ) y
G ∈ C ∞ (N n , S s ). Sea x ∈ M m y vx ∈ Tx M m , entonces
d (G ◦ F )x (vx ) =
=
=
∗
vx ◦ (G ◦ F ) = vx (F ∗ ◦ G∗ )
(vx ◦ F ∗ ) ◦ G∗ = dGF (x) (vx ◦ F ∗ )
dGF (x) (dFx (vx )) = dGF (x) ◦ dFx (vx )
Un ejemplo simple es la diferencial de la indentidad.
Ejemplo 15.47. d id|M n = id|Tx M n ya que
d id|M n : Tx M m
vx
= vx
→ Tx M m
→ d id|M n (vx ) : C ∞ (M m , ℜ) → ℜ
g
→ d id|M n (vx ) (g)
∗
id|M n (g) = vx (g ◦ id|M n ) = vx (g) es decir
d id|M n (vx ) = vx
Un caso especial de diferencial muy importante es cuando la diferencial es una
función inyectiva, entonces se dice que la diferencial es una inmersión: esto es:
Definición 15.48. Una inmersión de M m en N n , es una función suave F :
M → N n con diferencial dFx inyectiva.
m
Ahora vamos a definir las formas formalmente. Las formas son diferenciales
de una función que va de la variedad a los reales. Como los reales también son
una variedad, podemos usar la definición de la diferencial en estas funciones. La
diferencia es que vamos a identificar al espacio tangente de los reales con los reales
mismos. De hecho son el mismo espacio. Veamos esto formalmente.
Definición 15.49. Sea M n variedad, f ∈ C ∞ (M n , ℜ) y x ∈ M n . Entonces
dfx : Tx M n
vx
con
→ Tf (x) ℜ,
→ dfx (vx ) = λ
d
∈ Tf (x) ℜ, λ ∈ ℜ
dr
d
(r) = λ = vx (f ∗ (r)) = vx (r ◦ f ) = vx (f )
dr
(recuerden que r : ℜ → ℜ tal que r (x) = x). Esto es
d
dfx (vx ) = vx (f )
∈ Tf (x) ℜ.
dr
d
d
→ J λ dr
= λ, entonces
Consideremos el isomorfismo J : Tf(x) ℜ → ℜ, λ dr
d
n
la composición J ◦ dfx : Tx M → ℜ, vx → J (df (vx )) = J vx (f ) dr = vx (f ) es
un homomorfismo de espacios lineales y J ◦ dfx es un elemento del espacio dual de
Tx∗ M n que llamaremos el espacio cotangente de la variedad en x. A los elementos
de este espacio, que denotamos como Tx∗ M n , se llaman 1-formas en x y se denotan
como wx ∈ Tx∗ M n . Identificamos entonces Tf(x) ℜ con ℜ (a través del isomorfismo
J), por lo que podemos escribir
dfx (vx ) (r) = λ
dfx : Tx M n
vx
→ ℜ,
→ dfx (vx ) = vx (f ) .
264
que
15. VARIEDADES DIFERENCIALES
Comentario 15.50. Tomemos f = xi ∈ C ∞ (U, ℜ), dxi x : Tx M n → ℜ tal


n
X
∂  i
x = ai .
vx → dxi x (vx ) = vx xi =  aj
j
∂x
x
j=1
∂ En particular tomemos vx = ∂xj x , entonces
∂ ∂ i
=
xi = δji ,
dx x
∂xj x
∂xj x
se sigue que dxi x i=1,··· ,n es una base del espacio Tx∗ M n llamada la base coordenada dual o base de las 1-formas.
De una forma natural podemos definir campos vectoriales o campos de formas,
simplemente definiendo los espacios vectoriales para cada punto de la variedad.
Vamos a definir entoces los campos vectoriales y de formas.
∂ base de Tx M n . Un campo
Definición 15.51. Sea M n variedad y ∂x
i
x
vectorial, es una asignación suave de vectores para cada punto x ∈ M n .
Notación 15.52. Se denota v (f ) : M n → ℜ, suave, tal que v (f ) (x) := vx (f ).
n
P
∂
Se tiene que v =
ai ∂x
i , tal que
r−1
v (f ) (x) =
n
X
ai (x)
i=1
i
n
∂ (f ) ,
∂xi x
donde a : M → ℜ son funciones suaves para toda i = 1, · · · , n.
Notación 15.53. Al conjunto de campos vectoriales en M n se denota por
T M n.
Comentario 15.54. Observen que v : C ∞ (M n , ℜ) → C ∞ (M n , ℜ).
Definición 15.55. Sea M n variedad y dxi x i=1,··· ,n base de Tx∗ M n . Una
1-forma en M n es una transformación lineal para cada Tx M n con x ∈ M n . Se
denota
df (v) :
Mn → ℜ
df (v) = v(f )
suave, tal que df (v)(x) = dfx (vx ).
Notación 15.56. Al conjunto de las 1-formas en M n se denota por
emos que
n
X
bj dxj
df =
j=1
tal que
df (v)(x) = dfx (vx ) =
n
X
j=1
con bj : M n → ℜ funciones suaves.
bj (x) dxj x (vx ),
Vn
. Ten-
4. UNO FORMAS
265
Notación 15.57. Se suele denotar al “producto” de 1-formas con vectores como
n
n
P
P
∂
ai ∂x
bj dxj y v =
hw, vi = w(v). Si w =
j , entonces
i=1
j=1
hw, vi =
*
n
X
∂
ai i
bj dx ,
∂x
i=1
j=1
n
X
j
+
∂
j
a bj dx ,
:=
∂xi
j=1 i=1
n X
n
X
∂
i
j
a bj dx
=
,
∂xi
j=1 i=1
n X
n
X
como para cada punto x ∈ M n se cumple dxj x
hw, vi =
Observen que df : T M → C ∞ (M n , ℜ).
n
X
ai b i .
∂ ∂xi x
i
= δij , tenemos que
i=1
Tenemos que T ∗ M n es un espacio vectorial para cada punto x ∈ M n . Su dual
en cada punto será isomórfico a T M n en ese punto. Nosotros vamos a identificar
ambos espacios.
∗
Definición 15.58. Como (Tx∗ M n ) = Tx M n para toda x ∈ M n . Se tiene que si
w ∈ T ∗ M n y v ∈ Tx M n , entonces vx (wx ) ∈ ℜ, con vx (wx ) = wx (vx ) = hwx , vx i.
El ejemplo de las esferas es muy representativo y simple para entender el material anterior. Vamos a tomar de nuevo este ejemplo.
Ejemplo 15.59. Sea S 2 = (x, y, z) ∈ ℜ3 | x2 + y 2 + z 2 = 1 . Ya sabemos que
−1
los homeomorfismos de la esfera son σ± : ℜ3 → S 2 σ±
: S 2 → ℜ3 dados por
σ± (x, y, z) =
−1
σ±
(u, v) =
(x, y)
= (u, v)
1∓z
2u, 2v, ±(u2 + v 2 − 1)
1 + u2 + v 2
Entonces los vectores tangentes en S 2 estarán dados por
∂
∂ −1 (f ) =
f ◦ σ+ ∂x1+ x
∂u
σ+ (x)
∂
2v
u2 + v 2 − 1 2u
=
,
f
,
∂u
1 + u2 + v 2 1 + u2 + v 2 , 1 + u2 + v 2 σ+ (x)
∂
∂y ∂f
∂z ∂f ∂x ∂f
=
f (x, y, z)
+
+
=
∂u
∂u ∂x ∂u ∂y
∂u ∂z σ+ (x)
σ+ (x)
∂
1
∂
∂ 2
2
=
(f )
− 4uv
+ 4u
2 2 1−u +v
∂x
∂y
∂z σ+ (x)
(1 + u2 + v 2 )
Podemos escribir
ya que
∂
∂
∂
∂
= 1 − z − x2
− xy
+ x(1 − z)
1
∂x+
∂x
∂y
∂z
266
15. VARIEDADES DIFERENCIALES
x2 + y 2
u2 + v 2 σ+ (x) =
2 y
(1 − z)
Análogamente
2
(1 − z) − x2 + y 2
1 − u2 + v 2 σ+ (x) =
2
(1 − z)
∂
∂
∂
∂
= −xy
+ 1 − z − y2
+ y(1 − z)
∂x2+
∂x
∂y
∂z
Como era de esperarse, los vectores base del espacio tangente de S 2 son perpendiculares al radio vector, es decir:
(x, y, z) · 1 − z − x2 , −xy, x (1 − z) =
(x, y, z) · −xy, 1 − z − y 2 , y (1 − z) =
∂
∂x1+
∂
0=r· 2
∂x+
0=r·
Es decir, los vectores tangente, son realmente tangentes a la esfera en cada punto,
pues son perpendiculares alradio vector r. Entonces
el espacio tangente en el punto
x a una pelota es Tx S 2 = y ∈ ℜ3 |y · x = 0
n
o
Ejercicio 15.60. Calcular ∂x∂1 , ∂x∂2 . Demostrar que ∂x∂1 , ∂x∂2 son li.
−
−
±
±
Ejemplo 15.61. Los duales
al E
espacio tangente, el espacio contangente, se
D
i ∂
encuentran usando la regla dx , ∂xj = δji , se obtiene
dx1+ =
dx
dy
xdz
ydz
, dx2+ =
+
+
2
2
1−z
1−z
(1 − z)
(1 − z)
Estos dos vectores (transformaciones lineales) del espacio contangente son dos unoformas definidas en la carta sin polo norte.
Ejercicio 15.62. Calcular dx1− , dx2− . Demostrar que dx1± , dx2± son li.
Ejemplo 15.63. Vamos a encontrar los vectores base de Tx S 2 cambiando las
coordenadas a coorenadas esfericas, definidas por
(15.1)
x
= r sin(θ) cos(ϕ)
y
= r sin(θ) sin(ϕ)
x
= r cos(θ)
Cláramente, para r constante, las coordenadas cumplen que x2 + y 2 + z 2 = r2 , o
sea, ya estan restringidas a la esfera. Con esta coordenadas se puede ver que los
vectores tangente
∂
∂x
∂
∂y
∂
∂z
=
=
=
∂
y
2
+ y ∂ϕ
∂
x
x2 + y 2 ∂ϕ
∂
1
−p
x2 + y 2 ∂θ
−
x2
4. UNO FORMAS
267
Usando estos resultados, los vectores base del espacio tangente en coordenadas
esféricas se leen:
∂
sin(ϕ) ∂
∂
= (cos(θ) − 1) cos(ϕ)
+
∂x1+
∂θ
sin(θ) ∂ϕ
∂
∂
cos(ϕ) ∂
= (cos(θ) − 1) sin(ϕ)
−
∂x2+
∂θ
sin(θ) ∂ϕ
De la misma forma podemos ahora calcular los duales, las uno formas del espacio
cotangente. Se obtiene:
1
(cos(ϕ)dθ + sin(ϕ) sin(θ)dϕ)
dx1+ =
cos(θ) − 1
1
dx2+ =
(sin(ϕ)dθ − cos(ϕ) sin(θ)dϕ)
cos(θ) − 1
Claramente podriamos definir como bases del espacio tangente y cotangente una
1
2
combinacion lineal de estos vectores, por ejemplo w+
= (cos(θ) − 1)dx1+ w+
=
2
1
2
(cos(θ)−1)dx+ y a los vectores X+ , X+ como sus duales, de tal forma que podamos
1
2
1
2
, al multiplicar
hacer lo mismo con los correspondientes vectores w−
w−
X+
, X+
′
los vectores base por (cos(θ) + 1). Entonces los vectores w s y X ′ s obtendrán la
misma forma en ambas cartas, ambos serı́an
∂
sin(ϕ) ∂
1
1
cos(ϕ)
+
X
=
r
∂θ
sin(θ) ∂ϕ
∂
∂
cos(ϕ)
1
2
sin(ϕ)
−
X
=
r
∂θ
sin(θ) ∂ϕ
(15.2)
dw1
= r (cos(ϕ)dθ + sin(ϕ) sin(θ)dϕ)
2
= r (sin(ϕ)dθ − cos(ϕ) sin(θ)dϕ)
dw
donde hemos puesto el factor r en caso de que el radio de la esfera no sea 1 sino r.
Ejercicio 15.64. Calcular
∂
, ∂x∂2
∂x1+
+
y dx1− , dx2− en coordenadas esféricas.
En lo que sigue vamos a introducir otros dos conceptos en variedades diferenciales. El primero es el paréntesis de Lie y el segundo es el concepto de vectores
ϕ-relacionados. Ambos conceptos son muy usados en ciencias e ingenierı́a. Con el
paréntesis de Lie los espacios tangente pueden tener estructura de álgebra. Esta
estructura puede ser muy importante para caracterizar a la variedad, si por ejemplo, los vectores estan asociados a alguna simetrı́a de la variedad. Esto lo veremos
más adelante. Por ahora definamos los paréntesis de Lie.
Definición 15.65. Sea M n variedad y X y Y ∈ T M n . Se define [X, Y ] =
X ◦ Y − Y ◦ X. A la función [ , ] : T M n × T M n → T M n (X, Y ) → [X, Y ] se
denomina producto ó paréntesis de Lie de los campos vectoriales.
De la definición se siguen sus propiedades y el hecho que con el paréntesis de
Lie, el espacio tangente es una álgebra.
Proposición 15.66. El paréntesis de Lie tiene las siguientes propiedades
i) [X, Y ] = − [Y, X]
ii) [αX + βY, Z] = α [X, Z] + β [Y, Z] , [X, αY + βZ] = α [X, Y ] + β [X, Z]
iii) [[X, Y ] , Z] + [[Y, Z] , X] + [[Z, X] , Y ] = 0 (Identidad de Jacobi).
268
15. VARIEDADES DIFERENCIALES
iv) La estructura (T M n , +, [, ]; ℜ, ·) es una álgebra, llamada Álgebra de Lie de
los vectores tangentes.
Ejercicio 15.67. Demostrar la proposición.
Por supuesto los vectores coordenados conmutan, esto se ve en la siguiente
proposición.
i
h
∂
∂
=0
Proposición 15.68. ∂x
i , ∂xj
∂
∂
∂
∂
−1
◦ ψ para la
Demostración 15.69. Tomamos ∂x
i
∂xj f = ∂xi ∂r j f ◦ ψ
carta c = (U, ψ, V )
∂
∂
−1
−1
=
◦ψ
(f ◦ ψ ) ◦ ψ ◦ ψ
∂ri
∂rj
∂
∂
(f ◦ ψ −1 ) ◦ ψ
=
∂ri ∂rj
∂
∂
−1
=
(f ◦ ψ ) ◦ ψ
∂rj ∂ri
∂
∂
−1
−1
◦ψ
(f ◦ ψ ) ◦ ψ ◦ ψ
=
∂rj
∂ri
∂
∂
=
(f )
∂xj ∂xi
∂
∂
−1
n
(Hay que recordar que ∂x
i (f ) = ∂r∂i (f ◦ ψ −1) ◦ ψ, ya que para cada punto x ∈ M
∂ ∂
se tiene ∂xi (f )(x) = ∂xi x (f ) = ∂ri (f ◦ ψ )|ψ(x) ). Para calcular con los paréntesis de Lie, es conveniente trabajar en una base
coordenada. En terminos de una base coordenada, se puede ver que los parentesis
de Lie de dos vectores se ven como:
n
P
i ∂
[X, Y ] ∂x
Proposición 15.70. [X, Y ] =
i , con
i=1
n X
∂
∂
i
Xj j Y i − Y j j Xi
[X, Y ] =
∂x
∂x
j=1
Demostración 15.71. Por substitución directa. Supongamos que existe una función ϕ que va de una variedad a otra. En la
primera variedad se tiene un vector X y en la segunda variedad se tiene un vector
Y . Si mapeamos el vector X con la diferencial dϕ, este mapeo no necesariamente
tiene algo que ver con el vector Y . Sin embargo, si para todo punto de la variedad se
tiene que el mapeo del vector X por medio de dϕ corresponde al vector Y evaluado
en el punto por ϕ, se dice que estos dos vectores estan relacionados por medio de
ϕ, que estan ϕ-relacionados. Es decir, se tiene la definición:
Definición 15.72. Sean M m y N n variedades y ϕ ∈ C ∞ (M m , N n ). Se dice
que X ∈ T M m y Y ∈ T N n están ϕ -relacionados si para toda x ∈ M m se sigue
que dϕx (Xx ) = Yϕ(x) , vean la figura 9.
De aquı́ se desprenden varias propiedades muy interesantes que despues se
usaran. Vamos a ver las más importantes.
4. UNO FORMAS
269
Figure 9. Los vectores X y Y están ϕ relacionados, si para todo
elemento x de la variedad M m se sigue que dϕx (Xx ) = Yϕ(x) .
Proposición 15.73. Sean X ∈ T M m y Y ∈ T N n . X y Y están ϕ -relacionados
ssı́ ϕ∗ ◦ Y = X ◦ ϕ∗
Demostración 15.74. Sea f ∈ C ∞ (N n , ℜ) y x ∈ M m . Se sigue que
dϕα (Xx )(f )
= Xx (ϕ∗ (f )) = Xx ◦ ϕ∗ (f ) = X (ϕ∗ (f )) (x) = X ◦ ϕ∗ (f )(x)
= Xx (f ◦ ϕ) = Yϕ(x) (f ) = Y (f ) (ϕ(x)) = Y (f ) ◦ ϕ (x) = ϕ∗ (Y (f )) (x)
= ϕ∗ ◦ Y (f )(x) ssi ϕ∗ ◦ Y = X ◦ ϕ∗ ,
es decir, el diagrama
ϕ∗
C ∞ (M m , ℜ) ←−
X↓
ϕ∗
C ∞ (M m , ℜ) ←−
C ∞ (N n , ℜ)
Y ↓
C ∞ (N n , ℜ)
conmuta. Si ahora aplicamos la definición de vectores ϕ-relacionados al mismo vector,
obtenemos la definición de ϕ-invariante. Formalmente la definición es:
Definición 15.75. Sean X ∈ T M n y ϕ ∈ C ∞ (M m , M m ). X se llama ϕinvariante o invariante bajo ϕ si X ◦ ϕ∗ = ϕ∗ ◦ X, es decir si dϕx (Xx ) = Xϕ(x)
para toda x ∈ M n
Comentario 15.76. Observemos que si ϕ : M m → N n , entonces
dϕ : T M m → T N n
270
15. VARIEDADES DIFERENCIALES
tal que dϕ(X)(g)(y) = dϕ(X)y (g) con ϕ(x) = y ∈ N n , x ∈ M m . Si ϕ es un
dif
difeomorfismo entre M m ∼
= N n , entonces
dϕx (Xx ) (g) = Xx (g ◦ ϕ)
= dϕϕ−1 (y) Xϕ−1 (y) (g)
= Xϕ−1 (y) (g ◦ ϕ)
= X (ϕ∗ (g)) ϕ−1 (y)
= X (ϕ∗ (g)) ◦ ϕ−1 (y),
entonces se tiene la identidad
dϕ (X) (g) = X (ϕ∗ (g)) ◦ ϕ−1
Para terminar este capı́tulo vamos a introducir una transformación lineal equivalente a la diferencial, pero ahora en los espacios contangente a una variedad. La
manipulación y sus propiedades son muy parecidas a las de la diferencial.
Definición 15.77. Sean M m y N n variedades y F : M m → N n suave. Sea
x ∈ M m y y = F (x) ∈ N n . Con F podemos inducir la función
Fy∗ : Ty∗ N n → Tx∗ M m ,
wy → Fy∗ (wy ) :
Tx M m → ℜ,
Xx → Fy∗ (wy ) (Xx ) := wy (dF |x (Xx ))
y notemos que wy (dF |x (Xx )) = wy ◦ dF |x (Xx ) = wy ◦ Fx∗ (Xx ), es decir, se tiene
la identidad Fy∗ (wy ) = wy ◦ Fx∗ .
A esta función también se le conoce con el nombre de pull-back, su definición
es:
Definición 15.78. A Fy∗ (wy ) se le denomina la imagen reciproca o “pullback” de la 1 forma wy por F .
El Pull-back es una tranformación lineal entre los espacios contangentes.
Proposición 15.79. Fyx es una transformación lineal.
Ejercicio 15.80. Demostrar la proposición.
A esta transformación lineal a veces también se le llama la diferencial del espacio
cotangente, ya que tiene propiedades de una diferencial, por ejemplo cumple la regla
de la cadena, veamos.
Proposición 15.81. (G ◦ F )∗G◦F (x) = FF∗ (x) ◦ G∗G◦F (x)
Demostración 15.82. Sea M m , N n y S s variedades, F ∈ C ∞ (M m , N n ), G ∈
∗
s
C (N n , S s ), x ∈ M m , wF (x) ∈ TF∗ (x) N n , vG◦F (x) ∈ TG◦F
(x) S . Entonces se tiene
∞
4. UNO FORMAS
si wF (x) = G∗G◦F (x) vG◦F (x) ,
=
FF∗ (x) wF (x)
=
=
=
=
=
=
vean la figura 10. FF∗ (x) G∗G◦F (x) vG◦F (x)
FF∗ (x) ◦ G∗G◦F (x) vG◦F (x)
wF (x) ◦ dF |x
G∗G◦F (x) vG◦F (x) ◦ dF |x
vG◦F (x) ◦ dG|F (x) ◦ dF |x
vG◦F (x) ◦ d (G ◦ F ) |x
∗
(G ◦ F )G◦F (x) vG◦F (x) ,
Figure 10. Esquema de la demostración de la proposición 15.81.
271
CHAPTER 16
TENSORES Y P-FORMAS
1. Tensores
El material de los dos capı́tulos anteriores es fundamentalmente para estudiar
los tensores. La importancia de los tensores en ciencias exáctas e ingenierı́a, es el
hecho de que los tensores son cantidades matemáticas que no dependen del sistema
coordenado. El significado de “no depende” del sistema de coordenadas la daremos
en este capı́tulo, pero estas cantidades matemáticas han servido bien para modelar
cantidades fı́sicas importantes, como los campos. La idea es que estas cantidades
fı́sicas realmente no dependen del observador, es decir, las cantidades fı́sicas no importa si el observador las mide con una vara de un metro o una de un centimetro,
o con coordenadas catesianas o esfericas. El objeto fı́sico no se ve afectado por la
forma de medirlo o de observarlo. Esta condición la cumplen los tensores, por eso
se usan para modelar las cantidades fı́sicas observables. Desde el punto de vista
matemático, un tensor es una función multilineal, es decir, una función de varias
variables, pero la función es lineal en cada entrada. El dominio es el producto
cartesiano de un espacio vectorial varias veces, con su dual, también varias veces.
Nosotros vamos a tomar ese espacio vectorial como el espacio tangente a una variedad y su dual como el espacio cotangente a la variedad. Asi, la idea es definir
tensores que viven en variedades. Empecemos por la definición formal de un tensor.
Definición 16.1. Sea V espacio vectorial y V ∗ su espacio dual. Un tensor
del tipo (r, s) es una transformación multilineal T tal que
T : V ∗ × ···× V ∗ × V × ···× V →
{z
} |
{z
}
|
r veces
s veces
→
w1 , · · · , wr , v1 , · · · , vs
ℜ,
T w1 , · · · , wr , v1 , · · · , vs
Es decir, se tiene que si v1 , · · · , vs ∈ V y w1 , · · · , wr ∈ V ∗ , son transformaciones lineales en el espacio vectorial V , se sigue que
= αT w1 , · · · , wr , v, v2 , · · · , vs +
T w1 , · · · , wr , αv + βw, v2 , · · · , vs
βT w1 , · · · , wr , w, v2 , · · · , vs
para cada entrada del tensor.
Notación 16.2. Al conjunto de tensores lo denotamos como T ∈ V ⊗ · · · ⊗
V ⊗ V ∗ ⊗ · · · ⊗ V ∗ y se le llama producto tensorial.
Con la suma
(T + T ′ ) w1 , · · · , wr , v1 , · · · , vs
273
= T w1 , · · · , wr , v1 , · · · , vs
+ T ′ w1 , · · · , wr , v1 , · · · , vs
274
16. TENSORES Y P-FORMAS
y el producto por escalar
para todo
(αT ) w1 , · · · , wr , v1 , · · · , vs = αT w1 , · · · , wr , v1 , · · · , vs ,
la estructura
T, T ′ ∈ V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ , α ∈ ℜ,
(ℜ, V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ , +, ·)
es un espacio vectorial. A los elementos del espacio tensorial se les denota por
X1 ⊗ · · · ⊗ Xr ⊗ µ1 ⊗ · · · ⊗ µs , este elemento denota el tensor tal que
X1 ⊗ · · · ⊗ Xr ⊗ µ1 ⊗ · · · ⊗ µs w1 , · · · , wr , v1 , · · · , vs
= X1 w1 · · · Xr (wr ) µ1 (v1 ) · · · µs (vs )
= w1 , X1 · · · hwr , Xr i µ1 , v1 · · · hµs , vs i
dados X1 , · · · , Xr ∈ V y µ1 , · · · , µs ∈ V ∗ . Al espacio de tensores lo denotamos
también por
Tsr = V ⊗ · · · ⊗ V ⊗ V ∗ ⊗ · · · ⊗ V ∗ .
{z
} |
{z
}
|
r veces
s veces
Sean R ∈ Tsr y S ∈ Tqp , el producto entre tensores se define entonces como el tensor
r+p
Ts+q
tal que
R µ1 , · · · , µr , v1 , · · · , vs ·
R ⊗ S µ1 , · · · , µr+p , v1 , · · · , vs+q =
S µr+1 , · · · , µr+p , vs+1 , · · · , vs+q
La estructura (Tsr , +, ·, ⊗, ℜ, ·) es una álgebra llamada Álgebra tensorial.
Sea {ea }a=1,··· ,n y {ea }a=1,··· ,n bases de V y V ∗ , espacios vectoriales de dimensión n y su dual. Entonces podemos escribir tensores T ∈ Tsr en términos de
esa base como
n
X
···ar
Tba11···b
ea1 ⊗ · · · ⊗ ear ⊗ ebi ⊗ · · · ⊗ ebs ,
T =
s
ya que
a1 ···ar ,b1 ···bs
ea1 ⊗ · · · ⊗ ear ⊗ ebj ⊗ · · · ⊗ ebs ⊂ Tsr
será una base del espacio tensorial y las componentes de T están dadas por
···ar
Tba11···b
= T (ea1 , · · · , ear , eb1 , · · · ebs ) .
s
Como se ve, debido a la definición de tensores, la notación es muy extensa. Mas
adelante cambiaremos de notación por una mas simple, para reducir la escritura,
pero por ahora la mantendremos con el objetivo de que no vaya a haber confusión.
La propiedad importante de los tensores es la de no depender del sistema coordenado. Aquı́ vamos a ser más generales, vamos a demostrar que los tensores son
invariates al cambiar la base.
Proposición 16.3. Los tensores son invaraintes bajo cambios de base.
Demostración 16.4. Sean {ea }a=1,··· ,n y {e′a }a=1,··· ,n bases de V y {ea }a=1,··· ,n
y {e }a=1,··· ,n bases de V ∗ tal que {ea }a=1,··· ,n sea dual a {ea }a=1,··· ,n y {e′a }a=1,··· ,n ,
n
n
P
P
Λab eb donde Λba y
Λba eb y e′a =
sea dual a {e′a }a=1,··· ,n . Se sigue que e′a =
′a
b=1
b=1
1. TENSORES
275
Λab son coeficientes de matrices no singulares n × n. Por la dualidad de las bases,
se sigue que
* n
+ n n
n
n
X
X
X
XX
b
′b ′ b
b c
d
δa = e , e a = e , e a =
Λc e ,
Λ a ed
Λbc Λda δdc =
Λbc Λca .
c=1
Es decir
n
P
c=1 d=1
d=1
c=1
Λbc Λca = δab , por lo que Λbc y Λca son una la inversa de otra como matrices.
c=1
Ahora escribimos un tensor Tsr en términos de estas bases, esto es
T
n
X
=
=
1 ···ar ′
Tb′a1 ···b
ea1 ⊗ · · · ⊗ e′ar ⊗ e′b1 ⊗ · · · ⊗ e′bs
s
a1 ···bs =1
n
X
1 ···ar
Tb′a1 ···b
s
a1 ···bs =1
n
X
⊗
=
d1 =1
n
X
n
X
Λca11 ec1 ⊗ · · · ⊗
c1 =1
Λbd11 ed1 ⊗ · · · ⊗
n
X
Λcarr ecr
cr =1
Λbdss eds
ds =1
n X
n
n
X
Xn X
1 ···ar
ec1
···
···
Λca11 · · · Λcarr Λbd11 · · · Λbdss Tb′a1 ···b
s
a1 ···bs =1 c1 =1 cr =1d1 =1
=
n
X
ds =1
⊗ · · · ⊗ ecr ⊗ e ⊗ · · · ⊗ ed s
n
X
···cr
Tdc11···d
ec1 ⊗ · · · ⊗ ecr ⊗ ed r ⊗ · · · ⊗ ed s
s
dr
c1 ···ds =1
donde hemos llamado
(16.1)
···cr
Tdc11···d
s
=
n
X
a1 =1
···
n X
n
X
ar =1b1 =1
···
n
X
1 ···ar
.
Λca11 · · · Λcarr Λbd11 · · · Λbdss Tb′a1 ···b
s
bs =1
Comentario 16.5. Note que en cada caso se tiene que
y
1 ···ar
Tb′a1 ···b
= T e′a1 , · · · , e′ar , e′b1 , · · · , e′bs
s
···cr
Tdc11···d
= T (ec1 , · · · ecr , ed1 , · · · , eds ) .
s
Es decir, debido al cambio de base las componentes del tensor cambiaron,
pero el tensor mismo se quedo inalterado. Es en este sentido que los tensores son
invariantes ante cambios de base y por tanto de coordenadas. En ciencias fı́sicas
este hecho se usa continuamente. Una operación también muy usada en ciencias
fı́sicas es la contracción de tensores. A partir de uno o varios tensores, se construye
otro usando la contracción. Vamos a definirla.
Definición 16.6. Sea T ∈ Tsr en un espacio vectorial V . La contracción C11 (T )
de un tensor en las bases duales {ea }{ea } es un tensor (r − 1, s − 1) tal que las
n
n
n
P
P
P
aa2 ...ar
aa2 ...ar
1
Tab
componentes de C11 (T ) son
Tab
,
i.e.
C
(T
)
=
1
2 ···bs
2 ···bs
a=1
eas ⊗ · · · ⊗ ear ⊗ eb2 ⊗ · · · ⊗ ebs
a=1 a2 ···ar b2 ···bs =1
Proposición 16.7. La contracción es independiente de las bases.
276
16. TENSORES Y P-FORMAS
Demostración 16.8. Sean {ea }{ea } y {e′a }{e′a } bases duales de V . Entonces
C1′1 (T ) =
=
n
X
n
X
′aa2 ...ar ′
Tab
eas ⊗ · · · ⊗ e′ar ⊗ e′b2 ⊗ · · · ⊗ e′bs
2 ···bs
a=1a2 ···ar b2 ···bs =1
n
n X
n
X
X
a1 =1
···
ar =1b1 =1
···
d2
n
X
Λca22 · · · Λcarr Λbd22 · · · Λbdss
bs =1
ds
n
X
′a...ar
Ta···b
ecs
s
a=1
⊗ · · · ⊗ ecr ⊗ e ⊗ · · · ⊗ e
n X
n
n
X
X
...cr
=
δdc11
Tdc11dc22 ···d
ecs ⊗ · · · ⊗ ecr ⊗ ed 2 ⊗ · · · ⊗ ed s
s
c1 =1d1 =1
=
C1′1 (T )
c2 ···cr d2 ···ss =1
De la misma forma se pueden definir las contracciones de los demás ı́ndices.
Suele llamarse a los ı́ndices superiores de un tensor ı́ndices covariantes y a los
inferiores, ı́ndices contravariantes. Ası́ la contracción queda definida entre
ı́ndices covariantes con indices contravariantes.
Notación 16.9. Del mismo modo, se suele llamar a los vectores ea vectores
covariantes o uno-formas y a los ea vectores contravariantes o simplemente
vectores.
En lo que sigue vamos a estudiar algunos ejemplos simples de tensores usados
en fı́sica.
Ejemplo 16.10. El tensor de campo electromagnético es un tensor definido
como
3
X
A=
Aµ dxµ + dΛ
µ=0
donde Λ es una función arbitraria que va de los reales a los reales.
Ejemplo 16.11. El tensor de energia momento es un tensor definido como
T =
3
X
µ,ν=0
Tµν dxµ ⊗ dxν
en donde las componentes Tµν son basicamente las presiones y la densidad en la
diagonal, y los flujos de energia y momento en las componentes fuera de la diagonal.
Ejemplo 16.12. El tensor métrico es un tensor definido como
g=
3
X
µ,ν=0
gµν dxµ ⊗ dxν
el cual define una métrica en la variedad, a traves del producto escalar entre vectores. Mas adelante daremos los detalles de esta tensor, por el momento vamos a
discutir dos ejemplos simples. Primero tomemos las componentes gij = δij i, j =
1, 2, 3, y con las componentes con subindice 0 igual a cero. Lo que se obtiene es
una métrica Euclidiana, esta es:
g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz
1. TENSORES
∂
−
Tomemos el vector X = 2 ∂x
entre X y Y esta dado por:
g(X, Y ) =
=
∂
∂y
277
∂
∂
y el vector Y = − ∂x
+ 2 ∂z
. El producto interno
dx(X) ⊗ dx(Y ) + dy(X) ⊗ dy(Y ) + dz(X) ⊗ dz(Y )
2 · (−1) + (−1) · 0 + 0 · 2 = −2
Mientras que la norma de los vectores es
g(X, X) = dx(X) ⊗ dx(X) + dy(X) ⊗ dy(X) + dz(X) ⊗ dz(X) = 5 = ||X||2
g(Y, Y )
= dx(Y ) ⊗ dx(Y ) + dy(Y ) ⊗ dy(Y ) + dz(Y ) ⊗ dz(Y ) = 5 = ||Y ||2
La norma de los vectores siempre va a ser positiva. La distancia entre estos vectores
∂
∂
∂
− ∂y
+ 2 ∂z
)
será (X − Y = ∂x
g(X − Y, X − Y ) =
= dx(X − Y ) ⊗ dx(X − Y ) + dy(X − Y ) ⊗ dy(X − Y ) + dz(X − Y ) ⊗ dz(X − Y )
= ||X − Y ||2 = 1 + 1 + 4 = 6
Un ejemplo más interesante es la métrica de Minkowski, esta esta definida por
g = dx ⊗ dx + dy ⊗ dy + dz ⊗ dz − dt ⊗ dt
Tomemos ahora los vectores X =
X y Y ahora esta dado por:
∂
∂x
∂
− ∂t
yY =
∂
∂x
∂
+ ∂t
. El producto interno entre
g(X, Y ) = dx(X) ⊗ dx(Y ) + dy(X) ⊗ dy(Y ) + dz(X) ⊗ dz(Y ) − dt(X) ⊗ dt(Y )
= 1+1=2
Pero ahora las normas de los vectores es
g(X, X) = dx(X) ⊗ dx(X) + dy(X) ⊗ dy(X) + dz(X) ⊗ dz(X) − dt(X) ⊗ dt(X) = 0
g(Y, Y )
= dx(Y ) ⊗ dx(Y ) + dy(Y ) ⊗ dy(Y ) + dz(Y ) ⊗ dz(Y ) − dt(Y ) ⊗ dt(Y ) = 0
O sea, estos vectores tienen norma nula, sus tamaños son nulos, a pesar de que los
vectores no lo son. Esta es la principal caracteristica de la métrica de Minkowsky,
en este espacio existe vectores no nulos con norma nula o negativa. Esta métrica
podria ser vista como algo exótico, como una invención de algún matemático con
demasiada imaginación. Pero no lo es, es el mejor modelo del espacio tiempo que
tenemos, es algo muy real.
Vamos a tomar las componentes del ejemplo de la pelota 15.63. Tomemos a la
métrica para una pelota como
g = dw1 ⊗ dw1 + dw2 ⊗ dw2 = r2 dθ ⊗ dθ + sin2 (θ)dϕ ⊗ dϕ
Se suele denotar (abusando de la notación) a una métrica también como
g = dΩ2 = r2 dθ2 + sin2 (θ)dϕ2
el cual puede ser confuso, pues los elementos dθ2 y dϕ2 no son el cuadrado de una
diferencial, sino el producto tensorial de dos formas. Hay que tomar esto siempre
en cuenta.
278
16. TENSORES Y P-FORMAS
2. p-Formas
En esta sección hablaremos de las p-formas. Las formas son productos tensoriales de uno-formas antisimetrizados. Su importancia también viene de la fı́sica y de
las ciencias naturales. Con las p-formas es posible hacer oparaciones con mucha mas
sincillez y en muchos casos, las cantidades que se estudian adquieren un significado
más claro y presiso. En esta sección estudiaremos algunos ejemplos en la fı́sica, con
aplicaciones directas a la ingenierı́a. Vamos primero a definir las p-formas.
Definición 16.13. Sea V ∗ el conjunto de uno-formas. Al conjunto de tensores
(0, p) antisimétricos en cada entrada se llama p-formas.
Vamos a ser más explı́citos, sean w1 , w2 , w3 ∈ V ∗ , entonces las p-formas se
construyen como en los ejemplos siguientes.
Ejemplo 16.14. Una dos-forma se escribe como w = 21 w1 ⊗ w2 − w2 ⊗ w1
Ejemplo 16.15. Una tres-forma w = 61 (w1 ⊗ w2 ⊗ w3 +w3 ⊗ w1 ⊗ w2 +w2 ⊗
w3 ⊗ w1 −w3 ⊗ w2 ⊗ w1 −w1 ⊗ w3 ⊗ w2 − w2 ⊗ w1 ⊗ w3 ), etc.
En lo que sigue vamos a construir el álgebra de las p-formas. Primero vamos a
construir un producto entre p-formas, llamado el producto wedge. Su definición es
como sigue.
Definición 16.16. Sean w y µ una p y q-formas respectivamente. El producto
w ∧ µ es una (p + q)-forma, donde ∧ es antisimétrico i.e.
pq
w ∧ µ = (−1)
µ∧w
Esto quiere decir, que si {ea } es base de las uno-formas, entonces una 2-forma
se escribe como
w=
n
X
wa1 a2 ea1 ∧ ea2 donde ea1 ∧ ea2 =
a1 a2 =1
1 a1
(e ⊗ ea2 − ea2 ⊗ ea1 )
2
Analogamente, una tres forma se escribe como
w=
n
X
wa1 a2 a3 ea1 ∧ea2 ∧ea3 donde ea1 ∧ea2 ∧ea3 =
a1 a2 a3 =1
1X
[P ]
(−1) ea1 ⊗ea2 ⊗ea3
6
[P ]
donde
[P ] significa permutación de (a1 , a2, a3 ). De esta forma, se pueden construir
n
p-formas en un espacio V ∗ n-dimensional. Al conjunto de las p-formas se
p
denota como ∧p .
Proposición 16.17. Toda (n+k)-forma en un espacio n-dimensional es idénticamente
cero, para k > 1.
Demostración 16.18. Sean V ∗ un espacio n-dimensional y α ∈ V ∗ una n + 1
forma. Entonces
α = αai ···aj ak ···an+1 eai ∧ · · · ∧ eaj ∧ eak ∧ · · · ∧ ean+1 pero algún kj se repite. Ası́
que intercambiándolos α = −αai ···aj ak ···an+1 eai ∧ · · · ∧ eak ∧ eaj ∧ · · · ∧ ean+1 = −α
por lo tanto α = 0. 3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES
279
Ası́ como construimos el campo de las uno-formas y de los vectores, se puede
construir el campo de los tensores, simplemente definiendo los tensores en cada
punto de la variedad. Formalmente se tiene:
Definición 16.19. Un tensor T del tipo (r, s) sobre una variedad M n , es un
tensor construido sobre el espacio tangente T M n y el espacio cotangente T ∗ M n de
M n.
3. Diferenciación e integración en variedades
Para evitar un poco la notación de los indices con sumandos y factores extensos,
a partir de esta sección usaremos la convención de suma sobre ı́ndices repetidos de
Einstein, es decir, si dos indices se repiten en un tensor, es que estos indices se
estan sumando, a menos que se especifique lo contrario. En esta sección vamos a
definir la diferencial y la integral de p-formas y tensores sobre la variedad. Vamos
a definir tres tipos de operadores diferenciales y la integración de estos, en especial
veremos el teorema de Stokes. Para iniciar vamos a introducir la notación sobre las
diferenciales, ası́ todo sera más compacto.
Notación 16.20. En esta sección denotaremos la derivada por una coma, es
decir
∂f
= f,k
∂xk
∂2f
= f,kl
∂xk ∂xl
etc.
Primero vamos a definir la diferencial de p-formas, la cual es la mas usada y la
más simple de los operadores diferenciales que veremos.
Definición 16.21. Sea M n variedad y w una p-forma sobre M n . La diferencial exterior d es un mapeo d : ∧p → ∧p+1 tal que a
w
i
para dx
=
=
i=1,··· ,n
wi1 ···ip dxi1 ∧ · · · ∧ dxip → dw
d wi1 ···ip ∧ dxi1 ∧ · · · ∧ dxip
base coordenada de T ∗ M n = ∧1 . Se tiene que
dw = wi1 ···ip ,k dxk ∧ dxij ∧ · · · ∧ dxip .
La primera propiedad importante de este operador es que la diferencial de la
diferencial de una p-forma, es cero. Como veremos esta propiedad es muy importante.
Proposición 16.22. d (dw) = 0 para toda p-forma w ∈ ∧p , y para toda p ∈ Z + .
Demostración 16.23. Tenemos dw = wi1 ···ip ,k dxk ∧ dxi1 ∧ · · · ∧ dxip , entonces
d (dw) = wi1 ···ip ,kℓ dxℓ ∧ dxk ∧ dxi1 ∧ · · · ∧ dxip
donde se están sumando ı́ndices simétricos k, ℓ, con ı́ndices antisimétricos dxℓ ∧dxk ,
por tanto d (dw) = 0. Para calcular la diferencial de p-formas se aplica la siguiente fórmula.
280
16. TENSORES Y P-FORMAS
Proposición 16.24. Sean w y µ una p y q-formas respectivamente. Se sigue
p
que d (w ∧ µ) = dw ∧ µ + (−1) w ∧ dµ.
Demostración 16.25. Sean w = wi1 ···ip dxi1 ∧ · · · ∧ dxip y µ = µji ···jq dxj1 ∧
· · · ∧ dxjq
Entonces
d wi1 ···ip dxi1 ∧ · · · ∧ dxip ∧ µj1 ···jq dxj1 ∧ · · · ∧ dxjq
=
=
wi1 ···ip ,k dxk ∧ dxi1 ∧ · · · ∧ dxip ∧ µj1 ···jq dxj1 ∧ · · · ∧ dxjq +
+wi1 ···ip µj1 ···jq ,ℓ dxℓ ∧ dxi1 · · · ∧ dxip ∧ dxj1 ∧ · · · ∧ dxjq
p
dw ∧ µ + (−1) w ∧ dµ
Ejercicio 16.26. Muestre que dw (X, Y ) = X (w (Y )) − Y (w (X))− w ([X, Y ])
En el capı́tulo anterior introdujimos el concepto de full-back. Ahora vamos a
introducir un concepto similar, pero no hay que confudirlos, con el que podemos
trasladar formas o tensores covarientas de una variedad a otra. Vamos a escribir la
definición y luego daremos una breve explicación.
Definición 16.27. Sea φ : M m → N n , y M m , N n variedades. Entonces:
· El pull-back de tensores covariantes se define como
φ∗ T (v1 , · · · , vs ) |p = T (φ∗ v1 , · · · , φ∗ vs ) |φ(p) ,
v1 , · · · , vs ∈ T M m , p ∈ M m donde y T ∈ Ts0 .
· Análogamente para tensores contravariantes se tiene
φ∗ T w1 , · · · , wr |φ(p) = T φ∗ w1 , · · · , φ∗ wr |p
para T ∈ T0r y w1 , · · · , wr ∈ T ∗ N n
Vamos a ver primero el pull-back de una uno-forma.
Ejemplo 16.28. Sea w ∈ T ∗ N n y v ∈ T M m . Y sea ϕ : M m → N n . Entonces
el pull-back de w esta dado por
ϕ∗ w : T M m
v
→ ℜ
tal que
→ w(ϕ∗ v) = w(dϕ(v)).
Esto quiere decir que ϕ∗ es una función tal que
ϕ∗ : T ∗ N n → T ∗ M m ,
ya que φ∗ w ∈ T ∗ M m y w ∈ T ∗ N n . Recordemos que dϕ = ϕ∗ : T M → T N , vean
la figura 1.
Con el ejemplo anterior ya se puede proceder a encontrar el pull-back de un
tensor covariante en general. Y con este el de un tensor contravariante. Vamos a
demostrar ahora que el pull-back y la diferencial conmutan.
Proposición 16.29. Sea M m y N n variedades y φ : M m → N n y φ∗ el pullback. La diferencial exterior conmuta con el pull-bak.
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES
281
Figure 1. Representación de la función ϕ, del pull-back ϕ∗ y de
la diferencial de la función ϕ , dϕ = ϕ∗ .
Demostración 16.30. Sea w ∈ ∧p y f : M n → ℜ suave. Entonces, por la
regla de la cadena
d (f ◦ φ)
= d (φ∗ f ) = df ◦ dφ
= df ◦ φ∗ = φ∗ (df ) i.e.
d (φ∗ f ) = φ∗ (df )
De la misma manera para 1-formas:
d (φ∗ w) = d (w ◦ φ∗ ) = d (w ◦ dφ) = dw ◦ φ∗ = φ∗ (dw)
y análogamente para p -formas. El rotacional de un vector es un concepto matemático muy utilizado en ciencias
exactas. En si es definido como la diferencial totalmente antisimétrica de un vector.
Vamos a introducir el tensor de Levi-Civita, que nos va a servir para trabajar con
la antisimetrización de vectores y tensores. Es de hecho la generalización de la
antisimetrización que se usa en algabra de vectores. Aqui lo podemos introducir
para cualquier variedad de dimensión arbitraria.
Definición 16.31. El tensor totalmente antisimétrico de Levi-Civita ǫi1 ,··· ,in
se define como
 1 si i1 , · · · , in es permutación par de (1, 2, · · · , n)
-1 si i1 , · · · , in es permutación impar de (1, 2, · · · , n)
ǫi1 ,··· ,in =

0
cualquier otro caso
282
16. TENSORES Y P-FORMAS
Con el tensor de Levi-Civita podemos definir el operador de Hodge. Este
operador es muy usado para poder simplificar la notación. Vamos a escribir su
definición y luego estudiaremos algunos ejemplos de su uso.
Definición 16.32. El operador * de Hodge o transformación de dualidad es una función que mapea ∗ : ∧p → ∧n−p tal que
1
ǫi ···i i ···i dxip+1 ∧ · · · ∧ dxin
∗ dxij ∧ · · · ∧ dxip =
(n − p)! 1 p p+1 n
donde ǫi1 ,··· ,in es el tensor de Levi-Civita
Esta definición es posible gracias a la dualidad que existe entre los espacios
vectoriales de uno-formas ∧p y ∧n−p , ambas son de la misma dimensión. Es por
eso que la aplicación del operador de Hodge dos veces a una p-forma, es proporcional
a la p-forma, es decir, se regresa al lugar de origen.
p(n−p)
Proposición 16.33. ∗ ∗ wp = (−1)
wp donde wp ∈ ∧p
Demostración 16.34. Por substitución directa. Veamos algunos ejemplos simples.
Ejemplo 16.35. Sea w = f dx ∧ dy + g dy ∧ dz donde g, f : ℜ3 → ℜ en ℜ3 .
Entoncees, n = 3 y w ∈ ∧2
dw
∗w
∗dw
= f,z dz ∧ dx ∧ dy + g,x dx ∧ dy ∧ dz = (f,z + g,x ) dx ∧ dy ∧ dz
= f ∗ dx ∧ dy + g ∗ dy ∧ dz
1
1
= f ǫ123 dz + g ǫ231 dx
1!
1!
= f dz + gdx
= f,z + g,x
Es decir, la aplicación del operador de Hodge a una p-forma, consiste en quitar
todos los elementos de la base que tiene la p-forma y poner todos los restantes, los
que no se usan, en el orden que nos da el tensor de Levi-Civita. Las funciones que
van enfrente de la base no son afectadas por el operador de Hodge. Con este operador se define otro operador diferencial muy importante, llamado la codiferencial.
Definición 16.36. La codiferencial exterior ó derivada exterior adnp+n+1
junta se define por δ = (−1)
∗ d∗ para espacios n-dimensionales y para
p
p-formas. Se tiene que δ = − ∗ d∗ en espacios de dimensión par y δ = (−1) ∗ d∗
en espacios de dimensión impar.
Como en el caso de la diferencial, la doble aplicación de la codiferencial también
es cero.
Proposición 16.37. δ (δwp ) = 0
np+n+1
Demostración 16.38. δ (−1)
2(np+n+1)
p(n−p)
(−1)
∗ (−1)
dd ∗ wp Comentario 16.39. Se tiene entonces que
d : ∧p → ∧p+1
δ
2(np+n+1)
∗ d ∗ wp = (−1)
: ∧p → ∧p−1
∗ d ∗ ∗d∗ =
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES
283
Utilizando la definición de la diferencial y la codiferencial se puede definir otro
operador diferencial que llamaremos Laplaciano. En ciertos casos este operador es
el Laplaciano que se conoce en álgebra vectorial, pero de hecho es una generalización
de este para cualquier variedad de cualquier dimensión.
Definición 16.40. El Laplaciano ∆ sobre una variedad, es una función ∆ :
∧p → ∧p definida por ∆ = dδ + δd
Vamos a mostrar algunos ejemplos con todos los operadores diferenciales que
hemos definido, por facilidad lo haremos en ℜ2 , que es donde el cálculo nos es más
familiar, con ellos estas definiciones adquiriran más sentido.
Ejemplo 16.41. Sea M = ℜ2 . Entonces una base para ∧0 ⊃ {1}. Analogamente para ∧1 ⊃ {dx, dy} , y para ∧2 ⊃ {dx ∧ dy}. También podemos obtener la
aplicación ∗, esta nos da:
∗1 = dx ∧ dy;
∗dx = dy;
∗dy = −dx;
∗dx ∧ dy = 1.
Para las diferenciales obtenemos:
df (x, y) =
ddf =
d (udx + vdy) =
f,x dx + f,y dy
f,xy dy ∧ dx + f,yx dx ∧ dy = 0
(v,x −u,y ) dx ∧ dy
Analogamente, para las codiferenciales se obtiene:
δf (x, y) =
δ (udx + vdy) =
=
=
δ (φdx ∧ dy) =
=
− ∗ d ∗ f (x, y) = − ∗ d (f (x, y) dx ∧ dy) = 0
− ∗ d ∗ (udx + vdy) = − ∗ d (udy − vdx)
− ∗ (u,x dx ∧ dy − v,y dy ∧ dx) =
− ∗ ((u,x +v,y ) dx ∧ dy) = − (u,x +v,y )
− ∗ d ∗ (φdx ∧ dy) = − ∗ d (φ) = − ∗ (φ,x dx + φ,y dy) =
− (φ,x dy − φ,y dx) = −φ,x dy + φ,y dx
Y para los Laplacianos obtenemos:
∆f =
∆(udx + vdy) =
=
=
=
(dδ + δd) f = d (0) + δ (f,x dx + f,y dy) = − (f,xx +f,yy )
d [− (u,x +v,y )] + δ [(v,x −u,y ) dx ∧ dy]
− [u,xx dx + v,xy dx + u,yx dy + v,yy dy] − ∗ [(v,xx −u,yx )dx + (v,xy −u,yy )dy]
− [(u,xx +v,xy )dx + (v,yy +u,xy )dy] − [(v,xx −u,yx )dy − (v,xy −u,yy )dx]
− [(u,xx +u,yy )dx + (v,xx +v,yy )dy]
Estos últimos ejemplos justifican el nombre del operador ∆ como Laplaciano.
Para el caso de M = ℜ3 las bases respectivamente estan dadas como ∧0 ⊃ {1},
1
∧ ⊃ {dx, dy, dz} , para ∧2 ⊃ {dx ∧ dy, dx ∧ dz, dy ∧ dz} y para ∧3 ⊃ {dx ∧ dy ∧ dz}.
Igualmente podemos obtener la aplicación ∗ , esta nos da:
∗1 =
∗dx ∧ dy
=
dx ∧ dy ∧ dz;
dz;
∗dx = dy ∧ dz;
∗dy ∧ dz = dx;
∗dy = −dx ∧ dz;
∗dz ∧ dx = dy;
∗dz = dx ∧ dy;
∗dx ∧ dy ∧ dz = 1.
Ejercicio 16.42. Muestren que
∗d (v1 dx + v2 dy + v3 dz) = −∇ × v · dx,
donde v = (v1 , v2 , v3 ) y dx = (dx, dy, dz) es el radio vector.
284
16. TENSORES Y P-FORMAS
Ejercicio 16.43. Muestren que
δ (v1 dx + v2 dy + v3 dz) = −∇ · v,
donde v = (v1 , v2 , v3 )
Ejercicio 16.44. Muestren que
∆ (v1 dx + v2 dy + v3 dz) = −
∂ 2v
· dx = −∇2 v · dx
∂xk ∂xk
donde v = (v1 , v2 , v3 ).
El espacio tiempo se modela generalmente como una variedad 4-dimensional.
Los ejemplos en fı́sica son hechos en esta dimensión, aunque hay teorı́as modernas de
unificación que utilizan dimensiones más altas. Por eso para trabajar en el espacio
tiempo debemos trabajar en el espacio M = ℜ4 , donde las bases respectivamente
estan dadas por
para ∧0 ⊃ {1}
para ∧1 ⊃ {dx, dy, dz, dt} ,
para ∧2 ⊃ {dx ∧ dy, dx ∧ dz, dy ∧ dz, dx ∧ dt, dy ∧ dt, dz ∧ dt}
para ∧3 ⊃ {dx ∧ dy ∧ dz, dx ∧ dy ∧ dt, dx ∧ dz ∧ dt, dy ∧ dz ∧ dt}
para ∧4 ⊃ {dx ∧ dy ∧ dz ∧ dt}
Igualmente podemos obtener la aplicación ∗ , esta nos da:
∗1 = dx ∧ dy ∧ dz ∧ dt
∗dx = dy ∧ dz ∧ dt
∗dx ∧ dy = dz ∧ dt
∗dx ∧ dt = dy ∧ dz
∗dy ∧ dz ∧ dt = dx
∗ dy = −dx ∧ dz ∧ dt
∗ dz = −dx ∧ dy ∧ dt
∗ dy ∧ dz = dx ∧ dt dz ∧ dx = dy ∧ dt
∗ dy ∧ dt = dx ∧ dz
∗ dz ∧ dt = dx ∧ dy
∗ dx ∧ dz ∧ dt = −dy
∗ dx ∧ dy ∧ dt = dz
∗dx ∧ dy ∧ dz ∧ dt = 1
∗ dt = dx ∧ dy ∧ dz
∗ dx ∧ dy ∧ dz = dt
Ejemplo 16.45. Sea F = Fi dxi ∧ dt − 12 ǫijk H i dxj ∧ dxk = Fx dx ∧ dt + Fy dy ∧
dt + Fz dz ∧ dt − Hx dy ∧ dz + Hy dx ∧ dz − Hz dx ∧ dy, donde ǫijk es el tensor de
Levi-Civita y H i = Hi para i = 1, 2, 3. Podemos calcular su diferencial
dF
= [(Fz,y − Fy,z ) dy ∧ dz + (Fz,x − Fx,z ) dx ∧ dz + (Fy,x − Fx,y ) dx ∧ dy] ∧ dt
− (Hx,x + Hy,y + Hz,z ) dx ∧ dy ∧ dz
− [Hx,t dy ∧ dz − Hy,t dx ∧ dz + Hz,t dx ∧ dy] ∧ dt
Usando las expresiones anteriores, podemos calcular ∗dF
∗dF
=
−
−
[(Fz,y − Fy,z ) dx − (Fz,x − Fx,z ) dy + (Fy,x − Fx,y ) dz]
(Hx,x + Hy,y + Hz,z ) dt
[Hx,t dx + Hy,t dy + Hz,t dz]
Si ahora definimos los vectores F = (Fx , Fy , Fz ) y H = (Hx , Hy , Hz ) obtenemos
∗dF en representación vectorial como
∂
∗dF = −∇ × F · dx − ∇ · Hdt − H · dx
∂t
la cual es una expresión vectorial muy interesante que usaremos mas adelante.
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES
285
En función de la acción de los operadores sobre las p-formas, podemos clasificar
las p-formas de la siguiente forma.
Definición 16.46. Una p-forma wp ∈ ∧p se dice:
· Armónica si ∆wp = 0
· Cerrada si dwp = 0
· Cocerrada si δwp = 0
· Exacta si wp = dαp−1 αp−1 ∈ ∧p−1
· Coexacta si wp = δαp+1 αp+1 ∈ ∧p+1
La integración de p-formas tiene dos teoremas que hacen de las p-formas objetos
fácil de manipular. Vamos a presentar dos teoremas sin demostración, el teorema de
Hodge, que dice que cualquier p-forma es la superposición de una p-forma exácta,
una más coexáta o otra amónica. Ası́ es posible escribir las p-formas en términos de
estas p-formas con caracteristicas muy especiales. Este teorema es de gran ayuda
como veremos. Y el segundo teorema es el teorema de Stokes, que como veremos
en los ejemplos, es la generalización de una gran cantidad de teoremas matemáticos
sobre integración puestos todos en el mismo contexto. Empecemos por el teorema
de Hodge, el cual estudiaremos sin demostrarlo.
Teorema 16.47 (Hodge). Sea M n variedad compacta y sin frontera y ∧p el
conjunto de p-formas sobre M n . Entonces
wp = dαp−1 + δβp+1 + γp
p
para toda wp ∈ ∧ , con αp−1 ∈ ∧p−1 , βp+1 ∈ ∧p+1 y γp ∈ ∧p armónica.
Y el teorema de Stokes, que tampoco demostraremos aquı́.
Teorema 16.48 (Stokes). Sea M n variedad con frontera no vacı́a. Sea wp−1 ∈
una p − 1-forma sobre M n . Entonces
Z
Z
dwp−1 =
wp−1
p−1
∧
M
∂M
Para ver este teorema, es mejor ver la manera de trabajar con él. Para familiarizarnos con el teorema de Stokes vamos a estudiar algunos ejemplos en varios
espacios.
Ejemplo 16.49. En ℜ, n = 1, solo hay dos espacio de formas, las 0- y las
1-formas, es decir ∧0 y ∧1 . Sea f ∈ ∧0 y df ∈ ∧1 . Entonces se tiene
Z
Z
df = f .
M
∂M
Sea M = (a, b), entonces el teorema de Stokes es simplemente
Z b
df = f |ba = f (b) − f (a)
a
que es el teorema fundamental del cálculo.
Ejemplo 16.50. En ℜ2 hay tres espacios de formas, las 0-, 1-, y 2-formas, es
decir, ∧0 , ∧1 y ∧2 . Sea w = w1 dx + w2 dy una 1-forma en ℜ2 . Entonces dw =
286
16. TENSORES Y P-FORMAS
w1,y dy ∧ dx + w2,x dx ∧ dy. La aplicación del teorema de Stokes en este espacio nos
da
Z
Z
dw =
w.
M
∂M
Sea M una superficie, su frontera es una curva
Z
I
(w2,x − w1,y ) dx ∧ dy = (w1 dx + w2 dy) ,
M
ℓ
Que es el teorema de Stokes en el plano, vean la figura 2
Figure 2. Región de integración. M es una superficie y l es su contorno.
Ejemplo 16.51. En ℜ3 podemos definir 0-, 1-, 2- y 3-formas. Sea w una 1forma en ℜ3 , su diferencial esta dada por dw = d (w1 dx + w2 dy + w3 dz). Vamos a
escribir esta diferencial explicitamente, veamos
dw
= w1,y dy ∧ dx + w1,z dz ∧ dx
+w2,x dx ∧ dy + w2,z dz ∧ dy
+w3,x dx ∧ dy + w3,y dy ∧ dz
= (w2,x − w1,y ) dx ∧ dy
+ (w3,x − w1,z ) dx ∧ dz
+ (w3,y − w2,z ) dy ∧ dz
1
(wi,j − wj,i ) dxi ∧ dxj
=
2
1
ǫijk Bk dxi ∧ dxj
=
2
Si denotamos w = (w1 , w2 , w3 ), obtenemos
R que B R=rot w, siendo B = (B1 , B2 , B3 ) .
w implica que
La aplicación del teorema de Stokes dw =
Z
M
rot w · dS =
Z
M
M
B · dS =
Z
∂M
∂M
w · dx =
I
w · dx
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES
287
donde hemos usado el vector dS = (dy ∧ dz, −dx ∧ dz, dx ∧ dy). Esta es la fórmula
del flujo magnético sobre una superficie o ley de Gauss.
Vamos a estudiar algunos ejemplos utilizando parte del material desarrollado
hasta ahora.
Ejemplo 16.52. Vamos a iniciar de nuevo con el tensor electromagnético del
ejemplo 16.10. Sea de nuevo el tensor A = Aµ dxµ + dΛ. Tomemos su diferencial
F = dA = Aµ,ν dxν ∧ dxµ , ya que ddΛ = 0. Debido a la antisimetria del operador
∧, el nuevo tensor F es antisimétrico, es el tensor de Faraday. En componentes
este tensor se escribe como F = Fµν dxν ∧ dxµ , donde las componentes Fµν estan
dadas por


0
Ax,t − At,x
Ay,t − At,y
Az,t − At,z
1  − (Ax,t − At,x ) 0
Ay,x − Ax,y
Az,x − Ax,z 

Fµν = 
Az,y − Ay,z 
2  − (Ay,t − At,y ) − (Ay,x − Ax,y ) 0
− (Az,t − At,z ) − (Az,x − Ax,z ) − (Az,y − Ay,z ) 0
Por lo general también se escriben las componentes del tensor de Faraday en
términos de las componentes del campo eléctrico y magnético como


0
−Ex −Ey −Ez
1  Ex 0
Bz
−By 

Fµν = 
Bx 
2  Ey −Bz 0
Ez By
−Bx 0
Ası́ que
F
= −Ei dxi ∧ dt + ǫijk B i dxj ∧ dxk
= − (Ex dx ∧ dt + Ey dy ∧ dt + Ez dz ∧ dt)
+ Bx dy ∧ dz − By dx ∧ dz + Bz dx ∧ dy.
Comparando las componentes de las matrices, se puede ver que
∂A
−E =
+ ∇Φ
∂t
B = ∇×A
donde claramente se ha definido el vector A = (Ax , Ay , Az ), y dos vectores mas,
el vector eléctrico E = (Ex , Ey , Ez ) y el vector magnético B = (Bx , By , Bz ), de tal
forma que las componentes del tensor electromagnético son Aµ = (−Φ, A). Como
se sigue que dF = ddA = 0, esto implica que ∗dF = 0. Usando el resultado del
ejercicio 16.45 se tiene que
∂
∗dF = ∇ × E · dx + ∇ · Bdt + B · dx = 0
∂t
Esta identidad implica que
∂
∇×E+ B = 0
∂t
∇·B = 0
las cuales son la ecuación de Faraday y la ecuación de Gauss para el campo magnético,
respectivamente. Análogamente, se puede obtener una expresión para δF . Para
esto, vamos a obtener primero ∗F
∗F = Bx dx ∧ dt + By dy ∧ dt + Bz dz ∧ dt − (Ex dy ∧ dz − Ey dx ∧ dz + Ez dx ∧ dy)
288
16. TENSORES Y P-FORMAS
Si ahora usamos el resultado del ejercicio 16.45 obtenemos que
∂
∗d ∗ F = −∇ × B · dx + ∇ · Edt + E · dx
∂t
de donde claramente se ven la ley de Ampere y la ley de Gauss para el campo
eléctrico, es decir
∂
∇ × B − E = 4πj
∂t
∇ · E = 4πρ
de donde concluimos que las ecuaciones de Maxwell en términos de formas son
dF
δF
(16.2)
= 0
= −4πJ
donde J = ρdt + j · dx
Ejercicio 16.53. Muestre que la norma de Lorentz se puede representar como
δA = 0
Ejemplo 16.54 (Monopolo de Dirac). Ahora vamos a ver un ejemplo ya no en
un espacio plano, sino en una variedad no trivial, por ejemplo sobre la pelota. Dada
la generalidad de las formas, podemo incluso resolver las ecuaciones de Maxwell 16.2
sobre la pelota. Sea M = S 2 , y ya sabemos que unas bases de T ∗ S 2 estan dadas
por
dx
xdz
dx1± =
+
1 ∓ z (1 ∓ z)2
dx2±
=
dy
ydz
+
1 ∓ z (1 ∓ z)2
Cualquier 1-forma en T ∗ S 2 se escribe entonces como A± = A1± dx1± + A2± dx2± y
su diferencial se obtiene como dA± = (A2± ,2 −A1± ,1 ) dx1± ∧ dx2± . Una expresión
equivalente para este resultado es que F = ddA = 0. Análogamente, la aplicación
del operador de Hodge a la 1-forma A± nos da ∗A± = A1± dx2± − A2± dx1± . De
aqui podemos obtener la diferencial de esta última forma, obtenemos d ∗ A± =
(A1± ,1 +A2± ,2 ) dx1± ∧ dx2± . Para obtener la segunda ecuación de Maxwell, vamos
a obtener la aplicación del operador δ se obtiene entonces
dA±
δA±
= (A1± ,2 −A2± ,1 ) dx1± ∧ dx2±
= A1± ,1 +A2± ,2 .
Si ahora usamos la Norma de Lorentz δA = 0, podemos reducir las ecuaciones
electromagnéticas sobre la esféra sustancialmente. Vamos a escribir la segunda
ecuación de Maxwell. Se tiene que
δF
= − ∗ d ∗ F = − ∗ d (A1± ,2 −A2± ,1 )
= − ∗ A1± ,21 dx1± + A1± ,22 dx2± − A2± ,11 dx1± − A2± ,12 dx2±
= − ∗ − (A2± ,22 +A2± ,11 ) dx1± + (A1± ,22 +A1± ,11 ) dx2±
= (A1± ,11 +A1± ,22 ) dx1± + (A2± ,11 +A2± ,22 ) dx2±
donde ya hemos usado la norma de Lorentz para simplificar las ecuaciones. Una
solución de las ecuaciones de Maxwell en el vacio δF = 0 sobre la esfera es:
A1± = A0 x2± ,
A2± = −A0 x1±
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES
289
donde A0 es una constante. Observe que x1± = r1 ◦ σ± (p) = x/(1 ∓ z) and x2± =
r2 ◦ σ± (p) = y/(1 ∓ z). La solución entoces es
A0
A0
A± = A0 x2± dx1± − x1± dx2± =
2 (ydx − xdy) ∓
3 (xy − yx) dz
(1 ∓ z)
(1 ∓ z)
Si ahora cambiamos las coordenadas a coordenadas esféricas 15.1, las cuales son
más convenientes para analizar este caso, se obtiene:
A±
A+
A−
A0
(∓1 − cos(θ))
(ydx − xdy) = A0
dϕ
2
(1 ∓ z)
(±1 − cos(θ))
1 − cos(θ)
= −A0
dϕ
1 + cos(θ)
1 + cos(θ)
dϕ
= −A0
1 − cos(θ)
=
la cual es una solución a las ecuaciones de Maxwell en el vacio sobre la pelota.
Ejemplo 16.55. Vamos a tomar alguna solución con fuentes. Supongamos que
tenemos un tensor de corrientes dado por
J=
x1
12
(x
22
+x
+ 1)3
dx1 +
x2
12
(x
+ x2 2 + 1)3
dx2
(vamos a quitar en este ejemplo los subindices ± por comodidad). Igualando la
ecualción δF = −4πJ se llega a un sistema de ecuaciones
A1 ,11 +A1 ,22
=
A2 ,11 +A2 ,22
=
−4πx1
(x1 2 + x2 2 + 1)3
−4πx2
(x1 2 + x2 2 + 1)3
Este sistema tiene una solución dada por
A1
=
A2
=
πx1
12
2(x
+ x2 2 + 1)
πx2
2(x1 2 + x2 2 + 1)
En términos de las coordenadas de ℜ3 , la solución (regresando a la notación con
±) es
A0
A± =
(ydx − xdy) = A0 (∓1 − cos(θ)) dϕ
(1 ∓ z)
A+ = A0 (−1 − cos(θ)) dϕ
A− = A0 (1 − cos(θ)) dϕ
Es decir A+ = A− − 2A0 dϕ. Por lo tanto A± es solamente un campo de norma.
A± se llama el monopolo de Dirac
En la siguiente sección vamos a introducir otros dos operadores diferenciales,
uno es llamado derivada de Lie y el otro la derivada covariante. Ambos tienen
su esfera de interes y se utilizan para diferentes objetivos. La derivada de Lie es
muy importante para encontrar simetrias en alguna variedad. Con ella es posible
encontrar los vectores de Killing, que son asociados a simetrias del espacio. Con la
290
16. TENSORES Y P-FORMAS
derivada covariante se construye el tensor de curvatura, que es un tensor con el que
podemos medir ésta en todo punto del espacio. Para poder introducir la derivada
de Lie es necesario introducir algunos conceptos previos. Para esto necesitamos
primero algunas definiciones.
Definición 16.56. Sea M n variedad, U ⊂ M n y (−ǫ, ǫ) ⊂ ℜ. Un grupo
uniparamétrico de transformación es una función suave ϕ : (−ǫ, ǫ) × U → M n
tal que
1) ϕ (0, x) = x
2) ϕ (t + s, x) = ϕ (t, ϕ (s, x)) para toda t, s ∈ ℜ, x ∈ M n
Comentario 16.57. Observe que ϕ (t + s, x) = ϕ (s + t, x) = ϕ (s, ϕ (t, x))
El nombre de grupo es porque con esta función efectivamente se puede formar
un grupo, de un solo parámetro, esto se hace en la siguiente proposición.
Proposición 16.58. Sea ϕ : ℜ × M n → M n un grupo uniparamétrico de
transformaciones y
Ψ = {ϕt : M n → M n , x → ϕt (x) = ϕ (t, x)} .
Entonces (Ψ,◦ ) es un subgrupo del grupo de difeomorfismos.
Demostración 16.59. Se tiene que
ϕt ◦ ϕs (x) = ϕt+s (x) = ϕ (t + s, x) = ϕ (t, ϕ (s, x)) = ϕt (ϕs (x)) .
Entonces ϕ es cerrado. ϕt+s = ϕs+t implica que Ψ es abeliano, ϕ0 es la identidad
y ϕ−t = ϕ−1
t , ya que ϕt ◦ ϕ−t = ϕ0 Como el grupo uniparamétrico de transformaciones es una función de los reales
a la variedad, se puede construir una curva. Entonces con la curva se puede construir
la tangente a esta curva que a su vez define un vector. Entonce se dice que esta curva
es la curva integral del vector tangente a la curva. Vamos a hacer esto formalmente.
Definición 16.60. Sea M n variedad. Una curva integral de X ∈T M n es
·
un camino suave γ : (a, b) → M n tal que γ (s) = Xγ(s) , s ∈ (a, b) vean la figura 3.
Figure 3. La curva integral del vector X, es el camino suave
representado en la figura.
Vamos a aclarar esta definición un poco. Sea c = (U, ψ, v) una carta y X ∈ T U .
Entonces la función γ : (a, b) → U es una curva que cumple con la propiedad
dγ : Ts ℜ → Tγ(s) M n
3. DIFERENCIACIÓN E INTEGRACIÓN EN VARIEDADES
291
tal que explicitamente se cumple la siguiente igualdad
d
d ·
◦ γ∗.
= Xγ(s) := γ(s) =
dγ
dt s
dt
·
donde hemos definido la función γ(s). Esto es, para una función cualquiera de la
variedad a los reales f : M n → ℜ se tiene que esta función cumple con las siguientes
igualdades
d d ·
(f ) =
γ (f ) = dγ
(f ◦ γ) = Xγ(s) (f ) .
dt s
dt s
Vamos a tomar una función muy particular, sea f = xi , entonces se tiene lo siguiente:
d d ·
i
i
= dγ
γ x
x =
xi ◦ γ
dt s
dt s
∂ d i
j
x ◦ γ (s) = Xγ(s)
xi
=
dt
∂xj γ(s)
= Xγ(s) xi = X xj (γ (s)) .
d
Ası́ es que se cumple dt
xi ◦ γ = X xj ◦ γ. Esto quiere decir que, dado un
vector X en la variedad, para encontrar una curva integral, hay que resolver el
sistema de ecuaciones diferenciales
d i
(16.3)
x ◦ γ = X xi ◦ γ
dt
Ejemplo 16.61. Vamos a encontra la curva integral del vector
∂
∂
X = x2 1 − x1 2
∂x
∂x
Entonces, de la ecuación (16.3), las ecuaciones a resolver son (recuerden que r1 =
x1 ◦ γ, r2 = x2 ◦ γ)
dr1
= X(x1 ) ◦ γ = r2
dt
dr2
= X(x2 ) ◦ γ = −r1
dt
Una solución a este sistema es r1 = r sin(t), r2 = r cos(t). Es fácil ver que la curva
2
2
integral es un cı́rculo de radio r, ya que r1 + r2 = r2
Ejemplo 16.62. Veamos ahora la curva integral del vector del ejemplo 15.63
sin(ϕ) ∂
∂
+
X = (cos(θ) − 1) cos(ϕ)
∂θ
sin(θ) ∂ϕ
Entonces, de la ecuación (16.3), las ecuaciones a resolver son
dr1
dt
dr2
dt
= X(θ) ◦ γ = cos(r1 ) − 1 cos(r2 )
= X(ϕ) ◦ γ = cos(r1 ) − 1
sin(r2 )
sin(r1 )
Si dividimos la primera ecuación entre la segunda y separamos las variables, podemos integrar este sistema de ecuaciones. El resultado es que (csc(r1 ) − cot(r1 )) =
292
16. TENSORES Y P-FORMAS
c sin(r2 ). Una parametrización de esta curva esta dada por r1 = λ, r2 = 1/c arcsin(csc(λ)−
cot(λ)). La curva es graficada en la figura 4
Figure 4. Curva integral del vector del ejemplo 16.62. Como este
vector corresponde a uno de los vectores base de la pelota, esta
curva esta sobre la pelota y hay que imaginarsela dando vuelta
alrededor de ella y con los extremos que se juntan.
Ejercicio 16.63. Encuetre la curva integral de los vectores
1) X
=
2) X
=
∂
∂
+m 2
sobre ℜ2
∂x1
∂x
∂
sobre S 2
sin(θ)
∂ϕ
Otra propiedad importente del grupo unimaramétrico de transformaciones es
que induce dos importantes funciones. Con ellas vamos a poder construir la derivada
de Lie. Vamos a definir estas funciones.
4. DERIVADA DE LIE Y DERIVADA COVARIANTE
293
Definición 16.64. Sea ϕ : ℜ × M n → M n un grupo uniparamétrico de transformaciones sobre M n variedad. ϕ induce dos funciones
ϕt : M n
→ Mn
→ ϕt (x) = ϕ (t, x)
→ Mn
x
ϕx : ℜ
→ ϕx (t) = ϕ (t, x) .
t
Entonces {ϕt } es un subgrupo abeliano del grupo de difeomorfismos y ϕx induce el
·
vector X = ϕx .
Observe que el conjunto {ϕx |ϕx (t) = ϕ (t, x)} cumple que ϕx ◦ ϕy 6= ϕy ◦ ϕx en
general, por lo que
d d = dϕx ◦ dϕy
d (ϕx ◦ ϕy )
dt
dt s
s
=
=
X ◦ Y 6= Y ◦ X
d d (ϕy ◦ ϕx )
.
dt s
Esto es, la función ϕx induce un producto que en general es un producto no conmutativo entre los vectores de la variedad.
4. Derivada de Lie y Derivada Covariante
Debido a la rica estructura que tienen los tensores, es posible definir varios operadores diferenciales. En esta sección vamos a introducir dos operadores diferenciales
muy importantes y utilizados en fı́sica, son operadores que generalizan la derivada
normal. La derivada de Lie es conveniente para espacios que tinen isometrias o
simetrias especiales. Con la derivada de Lie, como veremos, es posible encontrar
estas simetrias. La derivada covariante es un operador que convierte a un tensor
en otro tensor, por eso su importancia como operador diferencial. A la derivada
de Lie la vamos a introducir sin demostraciones, pero para la derivada covariante
daremos las demostraciones mas importantes. Ahora estamos listos para definir la
derivada de Lie.
Definición 16.65. Sea M n variedad y T ∈ Tsr tensor sobre M n . Sea ϕ en
·
grupo uniparamétrico de transformaciones sobre M n , X = ϕx . La derivada de
Lie de T a lo largo de X se define como
1
LX T |p = lim (T |p −ϕt∗ T |p )
t→0 t
donde ϕx y ϕt son las funciones inducidas por ϕ.
La derivada de Lie tiene varias propiedades, que aquı́ vamos a poner sin demostración, y que podemos resumir en la siguiente proposición.
Proposición 16.66. Sea LX derivada de Lie del vector X, entonces se cumple:
1) LX preserva el tipo de tensor, es decir mapea LX : Tsr → Tsr
2) LX es lineal y preserva la contracción
3) Si S y T son tensores arbitarios, se cumple LX (S ⊗ T ) = (LX S) ⊗ T + S ⊗
(LX T )
4) LX f = X (f ) para f : M n → ℜ
294
16. TENSORES Y P-FORMAS
5) LX Y = −LY X = [X, Y ] para toda X, Y ∈ T M n
6) d (LX w) = LX (dw)
Finalmente, como dijimos, vamos a introducir otro operador diferencial, la
derivada covariante. Para esto necesitamos introducir una nueva estructura llamada
la conexión, y que vamos a denotar por ∇. La idea de la conexón es dar una forma
de conectar un vector que es trasladado paralelamente a traves de la variedad. Ası́,
si el vector base ea es traslado paralelamente a lo largo de la curva γ, que tiene
como vector tangente al vector eb , el vector final trasladado paralelamente sera
∇eb ea , vean la figura 5. Vamos a desarrolar esta idea con cuidado. Formalmente
la definición de conexión es:
Definición 16.67. Una conexión ∇ para algún p ∈ M n , variedad, es un
r
mapeo que le asocia a cada tensor del tipo T ∈ Tsr un tensor del tipo Ts+1
∇ :
r
r
Ts → Ts+1 tal que
1) ∇ es una derivación en el álgebra tensorial, i.e.
∇ (αT + βT ′ ) = α∇T + β∇T ′ y
∇ (S ⊗ T ) = ∇S ⊗ T + S ⊗ ∇T
2) ∇f = df para toda f : M n → ℜ
3) ∇ = ea ∇eb donde {ea }a=1,··· ,n y {eb }b=1,··· ,n son bases duales de T ∗ M n y
T M n respectivamente.
4) ∇X es lineal, i.e. ∇αX+βY = α∇X + β∇Y .
No hay una manera única de definir la conexión en una variedad. La más común
es la conexión que hace que la derivada covariante haga cero al tensor métrico, la
cual introduciremos mas adelante. Pero en general, la forma de definir la conexión
es usando la siguiente regla.
Sea {ea }a=1,...,n una base de T M n no necesariamente coordinada, es decir
∂
ea = eia ∂x
i . Entonces
∇eb ea = Γcab ec ∈ T M n
donde los coeficientes Γcab son funciones suaves,
vean la figura 5, que se obtienen
del producto Γcab = hec , ∇eb ea i, donde eb b=1,··· ,n es la base dual a {ea }a=1,··· ,n ,
es decir eb = ebj dxj y se cumple que
b ∂
b j
j
(16.4)
e , ea = ej ea dx , j = δab .
∂x
De hecho, definir la conexión es equivalente a dar los valores de las funciones Γcab
sobre la variedad. Para una base coordenada, los coeficientes de la conexión son
∂
∂
∇ ∂j
= Γkij k
∂x ∂xi
∂x
nosotros vamos a tomar siempre conexiones simétricas, es decir, para las bases
coordenadas se cumple que
Γkij = Γkji
Ejercicio 16.68. Estudien como se comportan los coeficientes Γcab bajo un
cambio de base (de coordenadas).
Conociendo la conexión en la variedad, se puede conocer la derivada covariante
de un vector. La forma de hacerlos se ve en la siguiente proposición.
4. DERIVADA DE LIE Y DERIVADA COVARIANTE
295
Figure 5. El desplazamiento paralelo de un vector. Este desplazamiento en una variedad define los coeficientes de la derivada
covariante entre bases dadas.
Proposición 16.69. Las componentes de la derivada covariante del vector Y
a lo largo del vector X, se ven como
∇X Y = Y|ba X b ea
donde {ea }a=1,··· ,n es una base de T M n y Y|ba = eb (Y a ) + Γacb X c
Demostración 16.70. Tomemos X = X b eb Y = Y a ea , entonces
∇eb Y
= ∇eb (Y a ea )
= (∇eb Y a ) ea + Y a (∇eb ea )
= eb (Y a ) ea + Γcab ec Y a
= (eb (Y a ) + Γacb Y c ) ea
= Y|ba ea
por la linearidad del operador ∇ea se obtiene el resultado deseado. Notación 16.71. En el caso que la base sea una base coordenada {dxi }, se
acostumbra denotar a la derivada covariante no por el simbolo |, sino por ; entonces:
∇
∂
∂xj
Y = Y i ,j +Γikj Y k
∂
∂
= Y;ji i
i
∂x
∂x
∂
Por supuesto ∇Y = dxj Y;ji ∂x
i no depende de las bases.
De hecho, la definición de la conexión o del transporte paralelo es equivalente.
Si se define una, se puede definir la otra. En este caso hemos definido a la conexión,
entonces el trasporte paralelo se define como:
Definición 16.72. Sea γ un camino en la variedad M , y sea X = γ̇ el vector
tangente a lo largo de γ. Se dice que el vector Y ha sido trasladado paralelamente
a traves de X, si
∇X Y = 0
296
16. TENSORES Y P-FORMAS
∂
i ∂
Supongamos por facilidad que X = X j ∂x
j , y que Y = Y ∂xi . Si desarrollamos
la fórmula de la definición 16.72, se tiene
∂
0 = ∇X Y = ∇X j ∂ j Y = X j ∇ ∂ j Y = X j Y i ,j +Γikj X j Y k
∂x
∂x
∂xi
que puede escribirse de la forma equivalente
d Yi◦γ
i
i
j k
+ Γikj X j Y k ◦ γ = 0
X(Y ) + Γkj X Y ◦ γ =
dt
donde hemos usado la fórmula de la cuarva integral de la ecuación (16.3) de X en
la igualdad.
Ejemplo 16.73. Vamos a discutir un ejemplo simple, para iniciar, vamos a
∂
suponer que la conexión es cero. Supongamos que tenemos el vector Y = Y 1 ∂x
1 +
2 ∂
Y ∂x2 el cual queremos desplazar paralelamente a lo largo de una curva. Ahora
veamos la ecuación del desplazamiento paralelo, se tiene
dY 2 ◦ γ
dY 1 ◦ γ
= 0,
=0
dt
dt
cuya solución es Y 1 = Y01 , Y 2 = Y02 , donde ya hemos puesto las condiciones
iniciales a la solución, es decir, el valor del vector Y |t=t0 en el punto donde se
inicia el desplazamiento. Este vector será siempre Y |t=t0 , es decir, si la conexión
es cero, un vector se desplaza paralelamente sin cambiar.
Ejemplo 16.74. Ahora vamos a estudiar un ejemplo donde la conexión no es
cero. Sea la variedad M 2-dimensional, con coordenadas θ, ϕ y con la conexión
sin(θ)
1
ϕ
Γθθθ =
Γθϕϕ = sin(θ) Γϕ
θϕ = Γϕθ = −
cos(θ) − 1
sin(θ)
y vamos a transportar paralelamente un vector sobre esta variedad a lo largo del
vector X dado por
∂
∂ϕ
cuya curva integral es un desplazamiento sólo en la dirección ϕ y esta dada por la
parametrización θ = θ0 constante y ϕ = θ0 t. Entonces encontremos el desplazamiento paralelo de un vector en M a lo largo de este vector, obtenemos
d Yθ ◦γ
0 =
+ Γθθθ X θ Y θ ◦ γ + Γθϕϕ X ϕ Y ϕ ◦ γ
dt
dy 1
+ sin2 (θ0 )y 2
=
dt
d (Y ϕ ◦ γ)
ϕ
θ ϕ
ϕ θ
+ Γϕ
0 =
θϕ X Y ◦ γ + Γϕθ X Y ◦ γ
dt
dy 2
− y1
=
dt
Para obtener el desplazamiento paralelo de Y , hay que resolver este sistema de ecuaciones con las condiciones iniciales correspondientes al punto inicial. La solución
del sistema esta dada por
X = sin(θ)
y 1 (t) =
y 2 (t) =
C1 sin (sin (θ0 ) t) + C2 cos (sin (θ0 ) t)
C2
C1
sin (sin (θ0 ) t) −
cos (sin (θ0 ) t)
sin (θ0 )
sin (θ0 )
4. DERIVADA DE LIE Y DERIVADA COVARIANTE
297
Dado el valor inicial de y 1 y y 2 , se fijan las constantes y se puede encontrar el
vector desplazado paralelamente en otro punto, para algún valor de t.
De la misma forma podemos calcular la derivada covariante de una 1-forma,
dado que ya conocemos la conexión en la variedad. Esto se ve en la proposición
siguiente.
Proposición 16.75. Sea ∇ conexión en M n . Si ∇eb ea = Γcab ec entonces
∇eb ea = −Γacb ec .
Demostración 16.76. Sea Y = Y a ea ∈ T M n y w = wc ec ∈ T ∗ M n . Usemos
el hecho que ∇ y por lo tanto ∇eb son derivaciones, entonces
∇eb (wc Y c ) =
wc|b Y c + wc Y|bc
Y como wc Y c es una función, se tiene:
=
eb (wc ) Y c + wc eb (Y c )
=
(eb (wc ) − Γacb wa ) Y c + wa (eb (Y a ) + Γacb Y c )
Por otro lado, se sigue que:
Por lo que entonces ∇eb w = wc|b ec = (eb (wc ) − Γacb wa ) ec Ejercicio 16.77. Demuestre que las componentes de la derivada covariante
···br
e ⊗ · · · ⊗ ebr ⊗ ea1 ⊗ · · · ⊗ eas estan dadas
∇eb T , aplicada a un tensor T = Tab11···a
s b1
por
s
r
X
X
bi
···br
···br
b1 ···c···br
b1 ···br
Γcaj b Tab11···c···a
−
Γ
T
)
+
=
e
(T
Tab11···a
b
a
···a
a
···a
cb
s
1
s
1
s
s |b
j=1
i=1
Existe una relación entre todas los operadores diferenciales que hemos definido,
la diferencial de p-formas, la derivada de Lie y la derivada covariante. Entre la
diferencial de p-formas y la derivada covariante la relación es que la diferencial se
puede facilmente generalizar a espacios con conexión ∇. La diferencial exterior,
definición 16.21, en espacios con conexión es
dw = ∇ ∂ j wi1 ,··· ,ip ∧ dxi1 ∧ · · · ∧ dxip ,
∂x
que, por ejemplo, para una 1-forma w = wi dxi se obtiene
dw = ∇
∂
∂xj
(wi )dxi = (wi,j − Γkij wk )dxi ∧ dxj .
Todas las proposiciones y teoremas que se aplican a la derivada exterior se siguen
igualmente con la definición extendida. Por lo general, los coeficientes de conexón
en un sistema coordenado {dxi } son simétricos, es decir Γkij = Γkji , en tal caso la
definición anterior es exactamente la definición 16.21.
La relación entre la derivada de Lie y la derivada covariante, la cual veremos
sin demostración, se sigue de la siguiente proposicón.
Proposición 16.78. Sea
···br
e ⊗ · · · ⊗ ebr ⊗ ea1 ⊗ · · · ⊗ eas
T = Tab11···a
s b1
tensor. Entonces la derivada de Lie a lo largo del vector X = X c ec de este tensor
esta dada por
s
r
X
X
c
c b1 ···br
···br
b1 ···c···br bn
···br
X|a
X
=
X
T
+
Tab11···c···a
−
T
(16.5)
LX Tab11···a
a1 ···as
s
s
|c
a1 ···as |c
m
n=1
m=1
Vamos a ver algunos ejemplos de como usar la fórmula (16.5).
298
16. TENSORES Y P-FORMAS
Ejemplo 16.79. Vamos a encontrar la derivada de Lie de un vector Y = Y b eb
a lo largo del vector X = X c ec . Usando la fórmula (16.5) se tiene
b
b
LX Y b = X c Y|cb − Y c X|c
= [X, Y ]b − Dcd
X cY d
b
b
donde Dcd
= Γbdc − Γbcd. Si las componentes de la conexión son simétricas Dcd
= 0,
la última igualdad fué dada en la proposción 16.66 sobre las propiedades de la
derivada de Lie. Vamos a encontrar ahora la derivada de Lie de una uno forma
w = wa ea a lo largo del mismo vector X = X c ec . Usando la fórmula (16.5) se
tiene
c
LX wa = X c wa|c + wc X|a
∂
i
i
Si {ej } = { ∂x
j }, {e } = {dx } son bases coordenadas, entoces solo hay que cambiar
i
el simbolo | por ; y Djk = 0 generalmente.
Ejemplo 16.80. Ahora vamos a buscar la derivada de Lie a lo largo del vector
X = X c ec de un tensor T = Tab ea ⊗ eb . De nuevo, usando la fórmula (16.5) se
tiene
c
c
+ Tac X|b
LX Tab = X c Tab|c + Tcb X|a
Este resultado lo usaremos más adelante.
El interes de la derivada de Lie radica en lo siguiente. Supongamos que ϕ es
una isometria (ver capı́tulo 9 definición 9.71). Es decir, esta función deja invariate
la métrica ρ ◦ ϕ(X, Y ) = ρ(ϕ(X), ϕ(Y )) = ρ(X, Y ). La presencia de isometrias
es común en problemas reales, por ejemplo, si un prblema tiene simetria axial, la
métrica del problema permanece inalterada alrededor del eje z, o si el prblema a
tratar es periodico, la métrica (Lorentziana) del problema tiene una isometria en
el tiempo. Ahora bien, si ϕ es una isometria, la derivada de Lie de la métrica a
lo largo de su vector tangente ϕ̇ = X es cero, lo cual se ve de la definición 16.65.
Es decir, las simetrias de un problema conducen siempre a derivadas de Lie de la
métrica a lo largo del vector de la isometria igual a cero. A los vectores tangente
generados por una isometria se les llama vectores de Killing. Su definición formal
es la siguiente.
Definición 16.81. Sea ϕ un grupo uniparametrico de trasformaciones que a
su vez es una isomentria ϕ∗t g = g. Entonces el vector generado por ϕ̇x = X se
llama vector de Killing
La manera de encontrar los vectores de Killing de una variedad M , es utilizando
el ejmplo 16.80. Para esto, supongamos que se tiene una métrica como la definida
en el ejemplo 16.12. Entonces se sigue que
∂
Proposición 16.82. Un vector de Killing X = X i ∂x
i cumple con la ecuación
diferencial
LX gij = X k gij;k + gkj X;ik + gik X;jk = 0
donde la mı́etrica esta dada como g = gij dxi ⊗ dxj .
Demostración 16.83. Por sustitución directa en el ejercicio 16.80 Comentario 16.84. Mas adelante veremos que una métrica es compatible con
la conexión si su derivada covariante es cero, es decir, ∇g = 0. Para estas métricas,
las que más nos interesan a nosotros, la ecuación anterior se reduce a
Xj;i + Xi;j = 0
4. DERIVADA DE LIE Y DERIVADA COVARIANTE
299
donde hemos definido Xk;i = gkj X;ik . A esta ecuación se le llama la ecuación de
Killing
Existen varias propiedades de los tensores cuando se les aplican los operadores
diferenciales que hemos visto. En lo que sigue, vamos a deducir solo algunas de las
propiedades más importantes. Vamos a iniciar con la siguiente proposición.
Proposición 16.85. Sean {ea = eai dxi } 1-formas base del espacio cotangente
T M y ∇ la derivada covariante en M , tal que Γabc es su conexión asociada. Entonces se sigue que
dea = Γabc eb ∧ ec
∗
Demostración 16.86. Sea {eb = ekb ∂x∂ k } la base dual a {ea = eai dxi } en T M .
De la definición de la conexión Γabc , se sigue que
Γabc = hea , ∇c eb i = heai dxi , ekb;j ejc
∂
i = eak ejc ekb;j
∂xk
De una forma análoga se puede ver que
∂
i = eak;j ejc ekb
∂xk
Donde hemos usado para simplificar, la notación ∇ec = ∇c . Si juntamos los dos
resultados anteriores se tiene
−Γabc = h∇c ea , eb i = heai;j ejc dxi , ekb
Γabc = eak ejc ekb;j = −eak;j ejc ekb
De la definición de diferencial exterior se sigue que
dea
=
=
=
=
=
eak;i dxi ∧ dxk
eak;i δji δlk dxj ∧ dxl
eak;i ebj eib ecl ekc dxj ∧ dxl
−eak;i eic ekb eb ∧ ec
Γabc eb ∧ ec
Esta es la llamada primera forma fundamental de Cartan. Notación 16.87. Es conveniente definir la 1-forma de conexón por
Γab = Γabc ec
de tal forma que
dea + Γab ∧ eb = 0
Para terminar esta sección, vamos a definir las curvas geodésicas. Una curva
geodésica es aquella que transporta paralelamente su vector tangente. Es decir:
Definición 16.88. Sea γ una trayectoria en una variedad M y X su vector
tangente, γ̇ = X. Se dice que la curva descrita por esta trayectoria es una geodésica
si
∇X X = 0
300
16. TENSORES Y P-FORMAS
Comentario 16.89. La ecuación geodésica también puede escribirse usando la
fórmula (16.3) de la curva integral del vector X.
drj drk
d2 ri
dX i ◦ γ
+ Γijk X j X k ◦ γ = 2 + Γijk
=0
dt
dt
dt dt
donde hemos usado la fórmula dri /dt = X i ◦ γ de la curva integral de X.
(16.6)
Vamos a estudiar un ejemplo sencillo.
Ejemplo 16.90. Vamos a estudiar un ejemplo donde la conexión es de la variedad M 2-dimensional, con coordenadas θ, ϕ del ejemplo 16.74. Recordando las
ecuaciones del desplazamiento paralelo, podemos escribir las ecuaciones para las
geodésicas en este espacio como
θ 2
ϕ 2
dr
sin(θ)
dr
d2 rθ
+ sin(θ)
= 0
+
2
dt
cos(θ) − 1 dt
dt
2 drθ drϕ
d2 rϕ
−
= 0
dt2
sin(θ) dt dt
La resolución de este sistema no es simple y en algunos casos se pueden dar soluciones parciales o se resuelven estos sistemas numericamente.
5. El Tensor Métrico y el Tensor de Curvatura
La definición de la conexión es, en general totalmente independiente de la
métrica de la variedad. En esta sección vamos a definir al tensor de curvatura
en terminos de la conexión. Eso quiere decir que la curvatura de la variedad es,
en general, totalmente independiente de la métrica. El transporte paralelo, equivalente a la conexión, asi como la curvatura, son cantidades que no dependen, en
general, de la métrica de la variedad. Estrictamente hablando, no hay forma de
fijar la conexión de una manera universal. En fı́sica, y mas concretamente en relatividad general, la conexión se fija utilizando las ecuaciones de Einstein. La razón
por la que introducimos al tensor métrico y al tensor de curvatura en la misma
sección, es porque hay una manera particular de fijar la conexón conociendo el tensor métrico, que es la manera canónica utilzada en fı́sica para relacionar a los dos
tensores. Ası́, las ecuaciones de Einstein son ecuaciones diferenciales para las componentes del tensor métrico, que a la vez fija la conexión y con ello a la curvatura.
Esta conexión es la que más nos va a interesar aquı́. Sin embargo, empezaremos
introduciendo al tensor de curvatura sin relación con el tensor métrico, y despues
discutiremos el caso especial en el que si estan relacionados. Este último caso es de
mucho interes porque la métrica fija la conexión y la curvatura de manera única y
nos limitaremos a estudiar las propiedades del tensor de curvatura solo para este
caso. Vamos a iniciar introduciendo el tensor métrico.
Definición 16.91. Sea M n una variedad n-dimensional y {wa }a=1,··· ,n una
base de T ∗ M . Un tensor del tipo (0, 2) simétrico tal que
g = ηab wa ⊗ wb
donde (η)ab = ηab = diag(±1, · · · , ±1), es un tensor métrico de M .
Notación 16.92. A la matriz ηab se le llama la signatura de la variedad.
Si η es la matriz identidad, se dice que la variedad es Euclidiana. Si hay solo un
uno con signo diferente a los demas, se dice que la variedad es Riemanniana.
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA
301
Sin embargo, en algunos libros (de matemáticas) lo que aquı́ llamamos variedad
Euclidiana lo llaman variedad Riemanniana y lo que aqui llamamos Riemanniana
lo llaman variedad Pseudoriemanniana o variedad Lorenziana.
Con el tensor métrico, la variedad y su espacio tangente adquieren varias estructuras. Si M n es una variedad con métrica, entonces g es un producto interno
entre vectores g(X, Y ). El espacio (T M, g) es un espacio Euclidiano y g su producto interno.pCon este producto se define una norma tal que la norma del vector
X es ||X|| = g(X, X). Entoces (T M, || · ||) es un espacio normado. Con la norma
definimos la métrica sobre T M como
p
ρ(X, Y ) = ||X − Y || = g(X − Y, X − Y ),
entoces (T M, ρ) es un espacio métrico (vea el capı́tulo 9). Sin embargo, debe quedar
claro que solo si la sigatura corresponde a una variedad Euclidiana (y sólo en este
caso), este tensor define un espacio Euclidiano. En el caso de la signatura Lorenziana, el espacio (T M, g) se llama espacio pseudoeuclidiano, (T M, ||||), ||X|| =
g(X, X) es un espacio pseudonormado y (T M, ρ), ρ(X, Y ) = ||X − Y || es un
espacio pseudométrico o Riemanniano en la variedad. Claramente, si tomamos
una base {eb } dual a {wa }, se tiene que ηab = g(ea , eb ). El caso mas interesante
en fı́sica es el de signatura Lorenziana, ya que corresponde al modelo del espacio
tiempo. El espacio tiempo es una variedad Riemanniana 4-dimensional, en este
caso a los 4 vectores base del espacio cotangente se le llama tetrada. En espacios
con signatura Lorenziana entonces los vectores pueden tener normas no positivas.
Se clasifica a los vectores segun su norma, si la norma es positiva se dice que el
vector es tipo tiempo, si su norma es nula, el vector es tipo nulo y si tiene
norma negativa, se dice que el vector es tipo espacio. Para signaturas Lorenzianas podemos usar la signatura η = diag(1, 1, 1 − 1). Sin embargo, es posible usar
signaturas no diagonales, como


0 1 0
0
 1 0 0
0 

η=
 0 0 0
−1 
0 0 −1 0
Esta signatura define una base del espacio muy particular llamada tetrada nula, ya
que g(ea , ea ) = 0 (no sumatoria!) para todo a = 1, 2, 3, 4. Esto es, los vectores base
del espacio tangente tienen norma (magnitud) nula. Es mas, el producto interno
de los vectores e1 y e2 es g(e1 , e2 ) = 1, y de los vectores e3 y e4 es g(e3 , e4 ) = −1.
Claramente, en este caso la norma y por tanto la distancia, no cumplen con el
axioma de ser definidas positivas. Esta signatura es de gran interes en relatividad
general.
En una base arbitraria, {wa = wia dxi }, el tensor métrico se escribe como
g = gab wa ⊗ wb = gab wia wjb dxi ⊗ dxj = gij dxi ⊗ dxj
donde hemos definido la cantidad gij = gab wia wjb . En ocaciones se acostumba
designar por el simbolo ds2 a la métrica, es decir ds2 = gij dxi ⊗ dxj . Ahora vamos
a definir la métrica compatible con la conexión.
Definición 16.93. Sea M variedad con conexión ∇ y métrica g. Se dice que
g es una métrica compatible con la conexión ∇ si
∇c g = 0, ⇔ ec (gab ) − Γbac − Γabc
302
16. TENSORES Y P-FORMAS
para todo vector ec , donde hemos utilizado el resultado del ejercicio 16.77 y hemos
definido la cantidad Γabc = gad Γdbc .
De aqui se desprende inmediatamente que si la conexión ∇ y la métrica g son
compatibles, se sigue entonces una relación para las componentes de la métrica
dada por
(16.7)
dgab = Γba + Γab
ya que si multiplicamos la relación de la definición 16.93 por los duales ec de los
vectores base ec , se llega a la relación anterior, recordemos que Γcb = Γcbd ed .
Esta definición también trae como consecuencia que un tensor métrico compatible con la conexión, define la univocamente la conexión en la variedad. Esto se ve
en la siguiente proposición.
Proposición 16.94. Sea M n variedad n-dimensional con conexión ∇ y métrica
g compatible con la conexión. Entonces las componentes de la conexión son determinadas univocamente por las componentes del tensor métrico.
∂
Demostración 16.95. Sea { ∂x
i }i=1,··· ,n una base coordenada de la variedad
M . De la definición de compatibilidad para esta base coordenada entre la métrica
y la conexión, se tiene que
n
−gij,k + Γjik + Γijk
gki,j − Γikj − Γkij
gkj,i − Γjki − Γkji
=
=
0
0
=
0
Si sumamos estas tres ecuaciones, obtenemos
1
Γkij = (gki,j + gkj,i − gij,k )
2
ya que Γkij es simétrica en los indices ij. Asi mismo podemos definir análogamente
los coeficientes de conexión
1
Γkij = g kl (gli,j + glj,i − gij,l )
2
donde g kl es la matriz inversa a gij , es decir g kl glj = δjk . Notación 16.96. A los coeficientes de conexión Γkij de una base coordenada se
les llama simbolos de Christoffel.
Para poder obtener los coeficiente de conexión en otra base, observemos que
ea Γabc eb ⊗ ec no depende de las bases, asi que
∂
∂
Γabc ea ⊗ eb ⊗ ec = Γabc eia i ⊗ ebj eck dxj ⊗ dxk = Γijk i ⊗ dxj ⊗ dxk
∂x
∂x
donde se ha definido la cantidad
Γijk = eia Γabc ebj eck
Claramente hemos usado las bases duales {ea } y {eb }. Para escribir los coeficientes
Γabc en terminos de los Γijk , se usan las relaciones de dualidad eia ebi = δba y eib ebj = δji ,
de donde obtenemos
Γabc = eai Γijk ejb ekc
Ahora vamos a introducir la dos forma de curvatura. La curvatura se define en
un espacio con conexión, no necesariamente con métrica. Formalmente su definición
es
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA
303
Definición 16.97. Sea M n variedad y ∇ una conexión en M n . Entonces
la dos forma de curvatura o segunda forma fundamental de Cartan, se
define como
Θab = dΓab + Γac ∧ Γcb
En término de sus componentes, podemos escribir a la dos forma de curvatura
como ciertos coeficientes por la base de las 2-formas, es decir
Θab =
1 a c
R e ∧ ed
2 bcd
a
donde claramente {ea } es una base de T ∗ M n . A las componentes Rbcd
se les conoce
como tensor de curvatura, ya que a su vez son las componentes de un tensor que
a
se puede escribir como R = Rbcd
ea ⊗ eb ⊗ ec ⊗ ed . También podemos obtener las
componentes de la dos forma de curvatura en términos de las componentes de la
conexión. Observemos que de su definición se sigue
Θab =
Γabc|d − Γecd Γabe ed ∧ ec + Γaec Γebd ec ∧ ed
1
1 a
Γbc|d − Γabd|c ed ∧ ec + (Γaec Γebd − Γaed Γebc ) ec ∧ ed
=
2
2
1
(−Γecd Γabe + Γedc Γabe ) ed ∧ ec
+
2
1 a
e a
Γbe ec ∧ ed
Γbd|c − Γabc|d + Γaec Γebd − Γaed Γebc + Dcd
=
2
de donde obtenemos que las componentes estan dadas por
a
e a
Rbcd
= Γabd|c − Γabc|d + Γaec Γebd − Γaed Γebc + Dcd
Γbe
En un sistema coordenado, las componentes del tensor de curvatura estan dadas
por una expresión un poco más simple
i
Rjkl
= Γijl,k − Γijk,l + Γink Γnjl − Γinl Γnjk
El tensor de curvatura tiene una interpretación geométrica doble. Por un lado,
es una medida de la diferencia que existe entre un vector y el mismo al ser transportado paralelamente a lo largo de una curva cerrada. El tensor de curvatura nos
da una medida de cuanto se diferencia el vector inicial y el final, despues de ser
transportado. Si la curvatura es cero, esa diferencia también es cero. Y también
nos da la separación que experimentan dos geodésicas al propagarse paralelamente.
Si se trata de un espacio de curvatura cero, las geodésicas no se separan o se juntan,
se propagan paralelamente. Pero si la curvatura no es cero, estas suelen separarse
o juntarse. El tensor de curvatura es una medida de esta separación.
El tensor de curvatura cumple con varias identidades y relaciones que sirven
para simplificar su cálculo. Vamos a derivar las mas importantes, empecemos por
una relación que aplica a la segunda derivada de un vector y al tensor de curvatura.
Proposición 16.98. Sea M n variedad y ∇ la conexión en la variedad. Sea
w = wi dxi una 1-forma en M n . Entonces se sigue que
l
wi;j;k − wi;k;j = Rijk
wl
304
16. TENSORES Y P-FORMAS
Demostración 16.99. La demostración es por cálculo directo, se tiene que
wi;j = wi,j − Γlij wl , entonces se sigue
wi;j;k = wi,j − Γlij wl ,k − Γnik wn,j − Γlnj wl − Γnjk wi,n − Γlin wl
Recordemos que las componentes de la conexión en un sistema coordenado son
simétricas, asi que
wi;j;k = wi,jk − Γlij,k wl − Γlij wl,k − Γlik wl,j − Γnik Γlnj wl − Γnjk wi,n − Γlin wl
wi;k;j = wi,jk − Γlik,j wl − Γlik wl,j − Γlij wl,k − Γnij Γlnk wl − Γnjk wi,n − Γlin wl
⇒ wi;j;k
−
l
wl
wi;k;j = Γlik,j wl − Γlij,k wl + Γnij Γlnk wl − Γnik Γlnj wl = Rijk
∂
Ejercicio 16.100. Sea M n variedad y X = X i ∂x
i . Demuestre que
i
i
i
X;j;k
− X;k;j
= −Rljk
Xl
···jr ∂
⊗ ··· ⊗
Ejercicio 16.101. Sea M n variedad y T = Tij11···i
s ∂xj1
n
is
· · · ⊗ dx un tensor en M . Demuestre por inducción que
···jr
···jr
=
− Tij11···i
Tij11···i
s ;k;j
s ;j;k
s
X
l=1
···jr
Rinl jk Tij11···n···i
−
s
r
X
l=1
∂
∂xjr
⊗ dxi1 ⊗
jl
···n···jr
Rnjk
Tij11···i
s
Observen que de la proposición 16.98 y del ejercicio 16.100 se desprenden la
i
i
relación para las componentes del tensor de curvatura Rjkl
= −Rjlk
. Si aplicamos
la relación del ejercicio 16.77 al tensor de curvatura, obtenemos
l
l
gnm;j;k − gnm;k;j = Rnjk
glm + Rmjk
gnl
de donde se desprende que para una conexión compatible con la métrica g, se sigue
l
que Rmnjk = −Rnmjk , donde Rmnjk = Rnjk
glm .
Otra relación que debemos explorar es las consecuencias sobre la curvatura de
la realción ddw = 0 para una 1-forma w. Dado que dw = wi;j dxj ∧ dxi , se sugue
que
ddw = wi,j − Γnij wn ;k dxk ∧ dxj ∧ dxi
=
wi,j − Γnij wn ,k − Γlik wl,j − Γnlj wn − Γljk (wi,l − Γnil wn ) dxk ∧ dxj ∧ dxi
= −Γnij,k wn − Γnij wn,k − Γlik wl,j − Γlik Γnlj wn dxk ∧ dxj ∧ dxi
= −Γnij,k − Γlik Γnlj wn dxk ∧ dxj ∧ dxi
n
= Rijk
wn dxk ∧ dxj ∧ dxi = 0
de donde se sigue la relación
(16.8)
n
n
n
Rijk
+ Rkij
+ Rjki
= 0.
Una relación que es muy importante para entender la teorı́a general de la relatividad, son las identidades de Bianchi. Estas identidades se obtienen en la siguiente
proposición.
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA
305
Proposición 16.102 (Identidades de Bianchi). Sea M n variedad con conexión
n
∇ y tensor de curvatura Rijk
. Entonces se sigue que
n
n
n
Rijk;l
+ Rikl:j
+ Rilj;k
=0
Demostración 16.103. Sea w = wl dxl una 1-forma en M n . Si usamos la
fórmula del ejercicio 16.101 para el tensor wi;l , se obtiene
n
n
wi;l;j;k − wi;l;k;j = Rijk
wn;l + Rljk
wi;n
Ahora aplicamos la derivada covariante al resultado de la proposición 16.98, se
obtiene
n
n
wi;j;k;l − wi;k;j;l = Rijk;l
wn + Rijk
wn;l
Ahora usamos el mismo procedimiento anterior, sumamos ambos resultados anteriores cambiando los indices j, k, l circularmente. Se obtiene
wi;l;j;k − wi;l;k;j
wi;k;l;j − wi;k;j;l
=
=
n
n
Rijk
wn;l + Rljk
wi;n
n
n
wi;n
Rilj wn;k + Rklj
wi;j;k;l − wi;j;l;k
=
n
n
Rikl
wn;j + Rjkl
wi;n
wi;j;k;l − wi;k;j;l
wi;k;l;j − wi;l;k;j
=
=
n
n
Rijk;l
wn + Rijk
wn;l
n
n
Rikl;j wn + Rikl wn;j
=
n
n
Rilj;k
wn + Rilj
wn;k
wi;l;j;k − wi;j;l;k
y restamos las 3 identidades de arriba menos los 3 identidades de abajo, se obtiene
n
n
n
n
n
n
wn
wi;n − Rijk;l
+ Rikl;j
+ Rilj;k
0 = Rljk
+ Rklj
+ Rjkl
pero lo que esta entre el primer paréntesis es cero, por la relación (16.8) que encotramos anteriormente, asi que se sigue lo que buscamos. Notación 16.104. A las relaciones anteriores se les llama las Identidades
de Bianchi.
Resumen 16.105. Vamos a resumir las identidades salidas del tensor de curvatura.
1.−
2.−
i
i
Rjkl
= −Rjlk
n
n
n
Rljk
+ Rklj
+ Rjkl
=0
3.−
4.−
n
n
n
Rijk;l
+ Rikl;j
+ Rilj;k
Identidades de Bianchi
Rmnjk = −Rnmjk Conexiones Compatibles con la métrica
En lo que sigue veremos algunos ejemplos de curvatura, por supuesto, si conocemos la conexión, es sencillo calcular la curvartura usando su definición o la segunda
forma fundamental de Cartan. Pero nosotros vamos a utilizar solo conexiones que
son compatibles con la métrica. Asi que para calcular la conexión conociendo la
métrica, puede usarse la definición de los simbolos de Christoffel o la primera forma
fundamental de Cartan. Vamos a resumir todas estas definciones en este espacio.
306
16. TENSORES Y P-FORMAS
Resumen 16.106. Sea M n variedad con métrica g = ηab dwa ⊗ dwb = gij dxi ⊗
dx , donde {w = wi dxi } es una base y {dxi } es una base coordenada del espacio
contangente T ∗ M n . Entonces, la conexión y la curvatura estan determinadas por
j
1.−
2.−
3.−
4.−
dwa + Γab ∧ wb = 0
Θab = dΓab + Γac ∧ Γcb Para una base no coordenada
1
Γijk = g il (glj,k + glk,j − gjk,l )
2
i
Rjkl
= Γijl,k − Γijk,l + Γink Γnjl − Γinl Γnjk Para una base coordenada
Ejemplo 16.107. En este ejemplo vamos a utilizar la notación convencional
dw ⊗ dw → dw2 . Vamos a buscar la métrica de la pelota S 2 . Como la pelota
esta inmersa en ℜ3 , la forma mas simple de encotrar la métrica de la pelota es
substituyendo la ecuación de la pelota de radio a, x2 + y 2 + z 2 = a2 , en la métrica
2
2
2
2
euclidiana de ℜ3 , dlℜ
3 = dx + dy + dz . Si substituimos
dz 2 =
(xdx + ydy)2
a2 − (x2 + y 2 )
obtenemos
dlS2 2 = dx2 + dy 2 +
(xdx + ydy)2
a2 − (x2 + y 2 )
Ahora bien, podemos usar coordenadas polares x = R cos(θ), y = R sin(θ) en la
métrica, para obtener
a2 dR2
dlS2 2 = R2 dθ2 + 2
a − R2
Conviene escribir la métrica de la pelota en términos del cociente r = R/a, entonces
la métrica se ve como
dr2
2
2
2
2
+ r dθ
dlS 2 = a
1 − r2
Para finalizar este ejemplo, vamos a escribir la métrica del espacio ℜ3 en términos
de las coordenadas esféricas 15.1 (vamos a cambiar la r de la definición 15.1 por
a, para denotar el radio de la esfera), se obtiene
2
2
2
2
dlℜ
= da2 + a2 dθ2 + sin2 (θ)dϕ2
3 = dx + dy + dz
la cual es la métrica euclidiana, pero ahora escrita en coordenadas esféricas. Si
limitamos esta métrica a la pelota, es decir, si hacemos a =constante, obtenemos
dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2 = a2 dΩ2
que es la métrica de la pelota pero en coordenadas esféricas. Hay que comparala con
la anterior forma que esta en coordenadas polares y con la métrica que se obtiene
si g = dw1 ⊗ dw1 + dw2 ⊗ dw2 , usando las formas de la pelota definidas en 15.2 en
el ejemplo 15.63. Esta comparación es la que justifica el uso de la notación de este
ejemplo.
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA
307
Ahora vamos a calcular la conexión y la curvatura. Primero lo haremos usando
la base coordenada. Usando las formulas del resumen 16.106, se obtiene
dr2
2
2
+
r
dθ
dlS2 2 = a2
1 − r2
r
1
Γrrr =
Γrθθ = −r(1 − r2 ) sin2 (θ), Γθθθ = cot(θ), Γθrθ =
2
1−r
r
1
θ
r
2
2
Rrrθ = −
, Rθrθ = r sin (θ)
1 − r2
y todas las demas componentes igual a cero. También podemos calcular estas cantidades de la métrica en coodenadas esféricas, se obtiene
dlS2 2 = a2 dθ2 + sin2 (θ)dϕ2
Γϕ
θϕ
θ
Rϕθϕ
= cot(θ),
= sin2 (θ),
Γθϕϕ = − sin(θ) cos(θ)
ϕ
Rθθϕ
= −1
Ejercicio 16.108. Siguiendo el ejemplo anterior, demuestre que la métrica de
S 3 en coordenadas esféricas esta dada por
dr2
2
2
2
2
2
2
+ r dθ + sin (θ)dϕ
dlS 3 = a
1 − r2
donde a es el radio de la esfera S 3 y r/a → r. Esta es la parte espacial de la
métrica de Friedman-Robertson-Waker. Calcule la conexión y el tensor de
curvatura de esta métrica.
Ejemplo 16.109. Sea M 4 una variedad con métrica de signatura Lorenziana
dada por g = ηab wa ⊗ wb , ηab = diag(1, 1, 1, 1 − 1), donde la tetrada esta dada por
w1
=
w3
=
t
t
√ dx, w2 = √ dy, x > 0
x x
x x
r
r
r
3x
2
2
4
dz +
dt, w =
dt
2
3x
3x
Lo primero que hay que notar, es que se debe cumplir la relación 16.7, es decir,
dηab = Γab + Γba = 0, entonces la conexión es antisimétrica en los indices ab.
Recordemos que Γab = ηad Γdb . Vamos a calcular la conexión utilizando las formulas
1 y 2 del resumen 16.106. Para esto encontremos primero la diferencial de la
tetrada, esta es
dw1
=
dw3
=
3
x−3/2 dt ∧ dx, dw2 = − x−5/2 t dx ∧ dy + x−3/2 dt ∧ dy,
2
!
r
r
r
1 2 −3/2
3 −1/2
2 −3/2
1
4
x
dx ∧ dz −
x
dx ∧ dt
dw = −
x
dx ∧ dt
2
2
3
2 3
que en terminos de la tetrada, se obtiene
√
3√
1√
dw1 =
6x w4 ∧ w1 , dw2 = −
x w1 ∧ w2 +
6x w4 ∧ w2
2
t
√
√
1√
x w1 ∧ w3 − 2 x w1 ∧ w4 , dw4 = − x w1 ∧ w4
dw3 =
2
308
16. TENSORES Y P-FORMAS
De aqui podemos entonces leer las componentes de la conexión
√
√
Γ14 = − 6xw1 − x w4
3√ 2
1√
Γ21 =
xw , Γ24 = −
6x w2 ,
2
t
√
√
1√
Γ31 = −
x w3 + x w4 , Γ34 = − x w1 ,
2
donde hemos tomado en cuenta la antisimetria de la conexión, por ejemplo, agregando términos convenientes a las componentes Γ14 y Γ41 . Ahora calculemos el tensor
de curvatura, obtenemos,
1
Θ14 = − x w1 ∧ w4
2
!
√
6
6
3
w1 +
w4
Θ21 = x w2 ∧
− +
4
t
t
!
r 1
2
3 1
4
1
2
2
w
−3 w −3 2 +
Θ4 = x w ∧
2 t
t
2
1
Θ31 = − x w1 ∧ w3 − 2 w4
4
!
r
√
3
1
Θ34 = x −
w1 ∧ w3 + 6 w1 ∧ w4 + w3 ∧ w4
2
2
de donde se pueden leer las componentes de la curvatura en esta base.
Para terminar este capı́tulo, vamos a introducir tres tensores mas, estos son
la contracción del tensor de curvatura, la traza de este tensor y una combinación
muy adecuada de estos dos. Vamos a iniciar con las contracciones del tensor de
curvatura.
Definición 16.110. Sea M n variedad y sea {ea } una base del espacio tangente
a
con dual {eb }. Sea ∇ conexión en M n y tensor de curvatura R = Rbcd
ea ⊗ eb ⊗
c
d
e ⊗ e . Entonces el tensor de Ricci es es la contracción del tensor de curvatura,
tal que
b = C 1 R = Ra eb ⊗ ed = Rbd eb ⊗ ed
R
2
bad
Análogamente, la traza del tensor de Ricci se llama escalar de Ricci, es decir
donde Rdc = η cb Rbd
b = Rd
R = C11 R
d
La importancia de estas dos nuevas cantidades radica en el siguiente proposición
Proposición 16.111. Sea M n variedad y sea {ea } una base del espacio tangente con dual {eb }. Sea g = ηab wa ⊗ wb una métrica en M n compatible con la
a
ea ⊗ eb ⊗ ec ⊗ ed .
conexión. Sea ∇ conexión en M n y tensor de curvatura R = Rbcd
Entonces se sigue que
1
=0
Gab |b = Rab − g ab R
2
|b
5. EL TENSOR MÉTRICO Y EL TENSOR DE CURVATURA
309
Demostración 16.112. Vamos a demostrar la proposición en el sistema coordenado, la demostración en general es equivalente. Ecribamos las identidades
Bianchi en componentes, contrayendo los indices adecuados para obtener el tensor
de Ricci, esto es
n
n
n
i
i
i
0 = Rink;l
+ Rikl;n
+ Riln;k
= Rik;l + g nm Rmikl;n − Ril;k = Rk;l
− g nm Rmkl;n
− Rl;k
Y volvamos a contraer los indices
k
k
k
k
Rk;l
− g nm Rmkl;n
− Rl;k
= R;l − g nm Rml;n − Rl;k
= R;l − 2g nm Rml;n = 0
Si multiplicamos por 1/2 y la inversa de las componentes de la métrica en esta
última expresión, llegamos al resultado deseado. Este resultado es de suma importancia en fı́sica, ya que es la ralación fundamental para definir las ecuaciones de Einstein.
Notación 16.113. Al tensor Gab ea ⊗ eb cuyas componentes estan definidas por
1
Gab = Rab − gab R
2
se le llama tensor de Einstein.
El hecho de que la contracción del tensor de Einstein con la derivada covariate
sea cero, hacen a este tensor el candidato idonea para ser la parte geométrica de
las ecuaciones fundamentales de la gravitación. Vamos a ver un ejemplo.
Ejemplo 16.114. Vamos a calcular el tensor de Ricci de la pelota S 2 en
coordenadas esféricas. Primero hay que usar las propiedades del tensor de curvatura del resumen 16.105 para encontrar todas las componentes no cero del tensor. Lo primero que hay que notar es que la única componente no cero es Rθϕθϕ =
a2 sin2 (θ), y con ellos calcular
Rθθ
ϕ
θ
= Rθθθ
+ Rθϕθ
= 1,
Rϕθ
ϕ
θ
+ Rϕϕθ
= 0,
= Rϕθθ
ϕ
θ
Rθϕ = Rθθϕ
+ Rθϕϕ
= 0,
ϕ
θ
Rϕϕ = Rϕθϕ
+ Rϕϕϕ
= sin2 (θ),
ϕ
Entonces podemos calcular el escalar de Ricci, haciendo R = Rθθ + Rϕ
= 2/a2 y
con él finalmente calcular el tensor de Einstein. El resultado es que G = 0.
Ejercicio 16.115. Calcule el tensor de Ricci, el escalar de Ricci y el tensor
de Einstein para la métrica de la pelota S 2 en coordenadas polares.
Ejercicio 16.116. Calcule el tensor de Ricci, el escalar de Ricci y el tensor
de Einstein para la métrica de la pelota S 3 en coordenadas esféricas.
Ejercicio 16.117. Calcule el tensor de Ricci, el escalar de Ricci y el tensor
de Einstein para la métrica del ejemplo 16.109
CHAPTER 17
HACES FIBRADOS
1. Haces
Los haces fibrados son unos de las estructruras matemáticas mas fascinantes
que hay. Son la generalización del producto cartesiano entre espacios topológicos.
Ya sabemos que el producto cartesino de dos espacios topológicos es un espacio
topológico. Los haces son productos cartesianos de espacios topologicos localmente,
aunque no necesariamente el espacio resultante, el haz, es un porducto cartesiano.
El ejemplo mas simple es la cinta de Möbius. Localmente se puede ver como
producto cartesiano de la recta con el cı́rculo, pero globalmente, es decir, toda la
cinta no es un producto cartesiano. Vamos a iniciar este capı́tulo con la definición
de haz, luego vamos a introducir el concepto de haz fibrado.
Definición 17.1. Un haz es una terna ξ = (E, B, π) donde E y B son espacios
topológicos y π : E → B es una función contı́nua y sobre. Se llama:
· A E espacio total,
· A B espacio base y
· A π la proyección.
La representación gráfica de los haces es como sigue
π
E
↓
B
Notación 17.2. Si b ∈ B, Fb (ζ) = π −1 ({b}) se le llama la fibra sobre b.
Comentario 17.3. Observe que si b 6= b′ , entonces Fb ∩ Fb′ = φ, por eso
E = ∪ Fb (ξ), el espacio total es la unión de las fibras disjuntas de B. (Fb , τFb ),
b∈B
siendo τFb = {Fb ∩ U }U∈τE un subespacio topológico de (E, τE ).
Entre los haces existe también el concepto de isomorfismo, se puede clasificar
a los haces usando los isomorfismos entre haces, dos de estos son el mismo, si son
isomórficos.
Definición 17.4. Dos haces ξ = (E, B, π) y ξ ′ = (E ′ , B, π ′ ) son isomórficos
f
ξ ≡ ξ ′ , si existe f : E → E ′ homeomorfismo, tal que π ′ ◦ f = π. Gráficamente se
tiene
f
E
−→
E′
πց
ւ π′
B
Definición 17.5. Un haz ξ = (E, B, π) se llama trivial si existen F , espacio
ϕ
topológico y ϕ : E → B × F homeomorfismo y se cumple que ξ ≃ (B × F, B, π1 ).
311
312
17. HACES FIBRADOS
Gráficamente, un haz es trivial si se ve como
ϕ
E
−→ B × F
πց
ւ π1
B
Definición 17.6. Una sección s del haz ξ = (E, B, π) es una función continua
s : B → E tal que π ◦ s = id|B , es decir s(b) ∈ Fb tal que b ∈ B. Esto es
s↿
E
↓
B
π
Los haces triviales tienen la caracteristica especial de tener una sección, es
decir, se puede definir una función que vaya de la base del haz a todo el haz, a un
punto de cada fibra del haz. Esto se ve en la siguiente proposición
Proposición 17.7. Todo haz trivial tiene al menos una sección.
Demostración 17.8. Sea ζ = (E, B, π) un haz trivial, ϕ : E → B × F un
homeomorfismo y ψ : B → F una función continua arbitraria. Entonces s =
B → E, b → s(b) := ϕ−1 (b, ψ(b)) es continua, pues ϕ−1 y ψ lo son, y π ◦ s(b) =
π ◦ ϕ−1 (b, ψ(b)) = π1 (b, ψ(b)) = b. Gráficamente
ϕ
E
−→ B × F
sտπց
ւ π1
B
Definición 17.9. Un haz fibrado es un haz ζ = (E, B, π) que es localmente
trivial, esto es, para toda cubierta {Uα }α∈J de B y cada sub-haz π −1 (Uα ) , Uα , π|π−1 (Uα ) =
α, existe F tal que el haz (Uα × F, Uα , π1 ) := αF es isomórfico a α, es decir existe
ϕα : π −1 (Uα ) → Uα × F homemorfismo y π1 ◦ ϕα = π|π−1 (Uα ) . Su gráfica serı́a
ϕα
π −1 (Uα )
−→ Uα × F
π|π−1 (Uα ) ց
ւ π1
Uα
Notación 17.10. A (Uα , ϕα ) se le llama sistema de coordenada local del
haz, a F la fibra del haz y a ϕα se le llama la trivialización local.
Comentario 17.11. Observe que un haz fibrado tiene siempre una sección
local, es decir, para cada Uα con α ∈ J el haz α tiene una función sα . sα : Uα →
π −1 (Uα ) con π ◦ sα = Id|Uα , sin embargo, si el haz no es globalmente trivial, no
existira una sección del haz (total).
Sea ξ = (E, B, π, F, U ) haz fibrado con U = {Uα }α∈J una cubierta de B. Sean
Uα ∩Uβ 6= φ α, β ∈ J, (Uα , ϕα ) y (Uβ , ϕβ ) dos sistemas de coordinadas locales en ξ y
F la fibra del haz. Como ξ es un haz fibrado, es localmente trivial y por tanto posee
una sección en cada Uα ⊂ B. Sea sα y sβ secciones locales para cada (Uα , ϕα ) y
−1
(Uβ , ϕβ ), tales que sα (b) = ϕ−1
α (b, ψα (b)) y sβ (b) = ϕβ (b, ψβ (b)). Las funciones
de transición del haz son funciones gαβ : Uα ∩Uβ → Aut(F ), b → gαβ (b) : F → F,
f → gαβ (b)(f ) tales que la composición de homeomorfismos
ϕβ ◦ ϕ−1
α
= (Uα ∩ Uβ ) × F → (Uα × Uβ ) × F, (b, f ) → ϕβ ◦ ϕ−1
α (b, f )
= (b, gαβ (b)(f )) ,
2. ESPACIOS G
313
es decir gαβ queda definida por ϕβ ◦ ϕ−1
α = Id|Ua ∩Uβ ×gαβ . Observe que para
cada F , ({gαβ (b)} ,◦) ⊂ Aut(F ) y por tanto es un grupo llamado el grupo de
subgr.
estructura del haz. La identidad está dada por gαα (b) y la inversa por gαβ (b) =
−1
(gβα (b)) .
2. Espacios G
Los espacios topolgicos pueden tener a su vez, otras estructuras ya sea algebraicas o analiticas. En el capı́tulo anterior vimos espacios topológicos dotados
de métrica, norma y producto interno. Vamos a introducir aqui una estructura
algebraica extra dentro de un espacio toplógico, dotando al conjunto que forma
el espacio topológico con una estructura de grupo. A estos espacios se les llama
grupos topolǵicos. Su definición es la siguiente.
Definición 17.12. Un grupo topológico es una terna (G, ·, τg ) en donde (G, ·)
es un grupo y (G, τG ) es un espacio topológico, y se cumple que las funciones
a) ·: G × G → G, (a, b) → a · b
b) inv. : G → G, a → inv(a) = a−1
son continuas.
Hay una manera sencilla de saber si la estructura de grupo de un conjunto
es compatible con la topologı́a. Vamos a presentar aquı́ la proposición sin demostración que nos da este criterio. Esta es:
Proposición 17.13. La terna (G, ·, τG ) con (G, ·) grupo y (G, τG ) espacio
topológico, es un grupo topológico ssı́ para
toda a, b ∈ G y para
toda Uab−1 ∈ τG
existe Ua y Ub ∈ τG tal que Ua (Ub )−1 = a · b−1 |a ∈ Ua , b ∈ Ub ⊂ Uab−1 .
En lo que sigue vamos a introducir dos funciones que son de mucha utilidad
para más adelante, pero que ahora nos ayudaran a introducir los espacios G. Estas
son las funciones de traslación. Su definición es para cualquier grupo topológico,
pero seran de gran utilidad cuando estudiemos grupos de Lie. La caracteristica más
importante de estas fuciones es que son automorfimos del grupo topológico. Vamos
a ver esto en la siguiente proposicón.
Proposición 17.14. Sea (G, ·, τG ) grupo topológico y g ∈ G. Las funciones
y
Lg : G → G
x → Lg(x) := gx
Rg : G → G
x → Rg(x) := xg
llamadas traslación izquierda y traslación derecha por g respectivamente,
son automorfismos de G.
Demostración 17.15. Lg y Rg son continuas porque el producto y la inversa
son continuas. Además tienen inversa continua, ya que (Lg)−1 = Lg −1 y (Rg)−1 =
Rg −1 , ie. Lg ◦ Lg −1 (x) = Lg(g −1 x) = gg −1 x = x e igual para Rg. Habiendo definido las traslaciones en un grupo topológico, ahora podemos introducir los espacios G. Los espacios G son estructuras en un espacio topológico, de
314
17. HACES FIBRADOS
una manera sencilla, es la axión de un grupo topológico sobre un espacio topológico.
Veamos esto formalmente.
Definición 17.16. Un espacio G derecho es una terna (E, G, ψ), donde E es
un espacio topológico, G es un grupo topológico y ψ : E × G → E (x, g) −→ ψ(x, g)
es una función continua tal que
1) ψ(x, e) = x
2) ψ (x, g1 · g2 ) = ψ (ψ(x, g1 ), g2 )
Notación 17.17. Es común denotar a ψ (x, g) como xg solamente.
Definición 17.18. Análogamente, se define un espacio G izquierdo con
ϕ : G × E → E continua tal que:
1) ϕ(e, x) = x
2) ϕ (g1 · g2 , x) = ϕ (g1 , ϕ (g2 , x))
Aquı́ también, suele denotarse a ϕ(g, x) por gx. Estas funciones son análogas
a las definidas cuando vimos los grupos uniparemétricos de trasformaciones, en el
capı́tulo anterior. De la misma forma a los grupos uniparametricos, la función ψ
induce la función
ψg : E
x
→ E
→ ψg (x) = ψg (x, g)
que cumple con las propiedades:
i) ψe (x) = x
ii) ψg1 g2 (x) = ψg1 ◦ ψg2 (x)
Se dice entonces que G actúa por la derecha sobre E ó análogamente que
actúa por la izquierda de E.
A las acciones derecha e izquierda se les puede clasificar. Una clasificación esta
dada como sigue.
Definición 17.19. Sea (G, E, ψ) un espacio G derecho. La acción derecha
de G sobre E se dice :
· Efectiva si ψ (x, g) = x para toda x ∈ E implica g = e
· Libre si ψ (x, g) = x para algún x ∈ E implica g = e
· Transitiva si para todo x, y ∈ E existe algún y ∈ E tal que y = Ψ (x, g)
(Análogamente se hace la misma clasificación para la acción por la izquierda)
La acción de grupos sobre espacios topológicos tiene algunas propiedades. Vamos a discutir algunas de las más importantes.
Proposición 17.20. Si la acción de G sobre E es libre entonces es efectiva.
Demostración 17.21. Supongamos que la acción no es efectiva, esto implica
que existe algún g0 ∈ G, g0 6= e tal que ψ (x, g0 ) = x para toda x ∈ E y por lo tanto
la acción no es libre. Proposición 17.22. Si la acción de G sobre E es libre y transitiva, entonces
para toda x, y ∈ E, existe un único g ∈ G tal que ψ (x, g) = y,
Demostración 17.23. Sean x, y ∈ E y g ∈ G tal que ψ (x, g) = y ya que ψ
′
es transitiva. Sea g ′ ∈ G tal que también
= y. Entonces x = ψ x, g g −1
ϕ (x, g ′) −1
−1
′
−1
= ψ ψ (x, g) , g
= ψ ψ (x, g ) , g
= ψ x, g g
, esto implica que g −1 = e, o
′
sea g = g. 3. HACES FIBRADOS PRINCIPALES
315
Los isomorfismos en los espacios G son análogamente definidos en términos de
sus estructuras separadas. Vamos a ver su definición formal.
Definición 17.24. Dos espacios G derechos γ = (E, G, ψ) y γ ′ = (E ′ , G, ψ ′ )
se dicen isomórficos si existe h : E → E ′ homeomorfismo tal que
ψ ′ ◦ (h × idG ) = h ◦ ψ h ◦ ψg = ψg′ ◦ h .
h
Se denota como γ ∼
= γ ′ ó γ
h×id|G
∼
=
γ′
Esta definición se puede poner en terminos del diagrama
ψ
E×G
−→ E
h × id|G ↓
↓h
ψ′
E′ × G
−→
Es decir, el diagrama anterior conmuta.
E′
3. Haces Fibrados Principales
La sección anterior tiene por objetivo introducir los haces fibrados principales.
Estos son haces en donde la fibra y el grupo que actua en él son el mismo grupo.
Su importancia radica en que estos haces son un excelente modelo para espacios
tiempo multidimensionales. De tal forma que si el espacio tiempo 4 dimensional
es la base del haz, el grupo del haz puede ser parte del grupo de alguna teorı́a de
norma, en donde actua el grupo. La descomposición del haz da una teorı́a natural
para la unificación de teorı́as de norma y el espacio tiempo. Vamos a iniciar con la
definición de haces fibrados principales.
Definición 17.25. Un haz fibrado principal es un sexteto (P, B, π, G; U, ψ)
donde (P, B, π, G; U ) es un haz fibrado y (P, G, ψ) es un espacio G derecho tal que
se cumplen los isomorfismos de G espacios
π −1 (Uα ) , G, ψ
donde
(ϕα ,ϕα × id
∼
=
|G )
(Uα × G, G, δ)
δ : (Uα × G) × G → Uα × G
((x, g) , g ′ ) → δ ((x, g) , g ′ ) := (x, g g ′ ) .
El diagrama
π −1 (Uα ) × G
conmuta.
ϕα × id |G ↓
(Uα × G) × G
ψ
−−−−−−→
−−−−s−−−→
π −1 (Uα )
↓ ϕα
Uα × G
Entonces un haz fibrado principal, es un haz fibrado, es decir, un haz localmente
trivial, en el que el grupo G es lo mismo que la fibra y es lo mismo que el grupo
de estructura. Se representa como en la figura 1. De la definición de δ, es claro
entonces que G actúa libre y transitivamente sobre el haz.
Proposición 17.26. Un haz fibrado principal es trivial si tiene una sección
(global).
316
17. HACES FIBRADOS
Figure 1. Un haz fibrado principal, es un haz fibrado, es decir,
un haz localmente trivial, en el que el grupo G es lo mismo que la
fibra y es lo mismo que el grupo de estructura. Estos haces son
muy importantes en fı́sica.
Demostración 17.27. ⇒) Un haz fibrado trivial tiene una sección.
⇐) Sea s : B → P en el haz ζ = (P, B, π, G; U ; ψ) y construyamos un homeomorfismo
ϕ:P
→ B×G
x → ϕ(x) = (b, g)
con π (x) = b y x = ψ (s (b) , g) = s(b)g, es decir ϕ(s(b)g) = (b, g). (Esto es siempre
posible, ya que G actúa libre y transı́tivamente en P ). Claramente ϕ es sobre. ϕ
es inyectiva, ya que
x 6=
=
x′ ⇒ ϕ (x = s (b) g) =
′
s(b′ )g, x′ ∈
/ Fb
(b , g)
(b, g) 6= ϕ x′ =
=
(b, g ′ )
s(b)g ′ x′ ∈ Fb
Además ϕ es continua, pues s lo es. Entonces ϕ es un homeomorfismo. Ejemplo 17.28. El ejemplo más simple es el producto cartesiano. Sea P =
B × G, donde B es una variedad y G un grupo. La proyección es simplemente
π −1 (p) = b, con π (b) = Fb ∼
= G. Supongamos que B = ℜ4 y G = U (1).
+
Recordemos
que
el
grupo
U (N ) = {U matriz
compleja N × N | U U = 1} por
lo que U (1) = U número complejo | U U = 1 . Podemos representar los elementos de U (1) por g1 = eiϕ1 , 0 ≤ ϕ1 < 2π. La acción de U (1) sobre ℜ4 la definimos
como
ψ : ℜ4 × U (1) → ℜ4
(x, g) → ψ (x, g) = x · eiϕ ,
la cual cumple con las propiedades (note que g1 · g2 = eiϕ1 ·eiϕ2 = ei(ϕ1 +ϕ2 ) ).
1.- ψ (x, e) = x · e0 = x
2.- ψ (ψ (x, g1 ) , g2 ) = ψ x · eiϕ1 , g2 = x · eiϕ1 · eiϕ2 =ψ (x, g1 g2 )
3. HACES FIBRADOS PRINCIPALES
317
Los elementos de B × G = {(x, g) | x ∈ ℜ4 , g ∈ U (1)}. La fibra en un punto
iso iϕ ≡ U (1).
x0 fijo será Fx0 = x0 · eiϕ ∼
= e
π
Ejemplo 17.29. Tomemos el haz P −→ S 1 con fibra F = [−1, 1]. Tomemos
las cubiertas para el cı́rculo S 1 , U1 = (0, 2π) y U2 = (−π, π) y sean A = (0, π) y
B = (π, 2π) en las intersecciones de éstas, A, B ⊂ U1 ∩ U2 . Cada una de estas
intersecciones son difeomórficas a S 1 . Tomemos las trivializaciones en A tal que
ϕ1 (u) = (θ, t) y ϕ2 (u) = (θ, t). La función de transición para θ ∈ A está dada por
g12 (θ) : F → F , t → g12 (θ) (t) = t. En B podemos escoger las trivalizaciones de
dos formas
ϕ2 (u) = (θ, t)
θ∈B
I. ϕ1 (u) = (θ, t)
ϕ2 (u) = (θ, −t)
θ∈B
II. ϕ1 (u) = (θ, t)
Para el caso I, la función de transición es de nuevo la identidad en F , pero
para el caso II la función de transición es g12 (θ) (t) = −t , θ ∈ B. El grupo de
estructura en el primer caso consta solo de un elemento G1 = {e}, mientras que el
segundo tiene 2 elementos G2 = {e, g},
e:F → F
e(b) = t
y
g:F → F
g(t) = −t.
iso
iso
Observen que g 2 = e, por lo que G2 ∼
= S 0 . Si en II reemplazamos
= {1, −1} = Z2 ∼
el intervalo F = [−1, 1] por solo los dos puntos F = {−1, 1}, entonces tenemos un
haz fibrado principal, con fibra Z2 = {1, −1} = S 0 , el cual es un haz de cı́rculos. El
haz I es un cilindro, mientras que el haz II es la banda de Möbius. Gráficamente
serı́a
S0
|
P
π ↓
S1
vean la figura 2.
Ejemplo 17.30. Otro ejemplo interesante es el haz de Hopf, el cual también
es un haz de esferas. Gráficamente es el haz
π
S1
|
S3
↓
S2
donde
S 3 = x ∈ ℜ4 | (x1 )2 + (x2 )2 + (x3 )2 + (x4 )2 = 1 con x = (x1 , x2 , x3 , x4
S 2 = y ∈ ℜ3 x2 + y 2 + z 2 = 1 y = (x, y, z)
318
17. HACES FIBRADOS
Figure 2. El cilindro y la cinta de Möbius son haces fibrados
principales si sólo se toma a los elementos 1,-1 de la fibra. El
cilindro es un haz fibrado trivial mientras que la cinta de Möbius
no es trivial. El grupo de estructura y a la vez la fibra son el grupo
Z2 .
0
Las esferas pueden ser parametrizadosn utilizando números
o complejos como z =
0 2 1 2
1
2
1
3
4
3
x + ix , z = x + ix , ası́ que S = z + z = 1 . La proyección
π : S3 → S2
π(x , x , x3 , x4 ) =
2 x1 x3 + x2 x4 , 2 x2 x3 − x1 x4 , (x1 )2 + (x2 )2 − (x3 )2 − (x4 )2
1
2
=
(x, y, z)
es una proyección. Noten que x2 + y 2 + z 2 = (x1 )2 + (x2 )2 + (x3 )2 + (x4 )2 = 1.
Usando la notación del ejemplo 15.7 tenemos que si hacemos
Z
=
W
=
x + iy
z0
x1 + ix2
= 1 y y = (x, y, z) ∈ S 2 \ {N } = UN
= 3
4
1−z
x + ix
z
z1
x3 + ix4
x + iy
= 0
y ∈ S 2 \ {S} = US
= 1
u + iv =
1+z
x + ix2
z
u + iv =
es decir Z = 1/W en US ∩ UN . Las trivializaciones locales las definimos como
φN : π −1 (US ) → Us × U (1)
0
z z1
(z 0 , z 1 ) → φS z 0 , z 1 =
,
z 1 |z 1 |
φS : π −1 (UN ) → UN × U (1)
1
z z0
,
z 0 , z 1 → φN z 0 , z 1 =
z 0 |z 0 |
0 1
En el ecuador z = 0, entonces z = z = √12 . Ahı́ se tiene que las trivializaciones se pueden escribir como
1
0
z √ 0
z √ 1
0 1
0 1
φN z , z =
, 2z , φS z , z =
, 2z ,
z1
z0
4. HACES VECTORIALES
319
entonces la función de transición en el ecuador estará dada por
z0
gN S x = 1 = x + iy ∈ U (1).
−
→
z
En la región UN ∩US todos los puntos son equivalentes al ecuador, ası́ que U (1) será
el grupo de estructura, por lo que tenemos un haz fibrado principal. Fı́sicamente,
este haz describe un monopolo de carga 1. Otros ejemplos de haces de Hopf son
π
π
S 3 → S 7 → S 4 y S 7 → S 15 → S 8 , aunque en este último S 7 no es un grupo como
π
S3 ∼
= SU (2). El haz S 3 → S 7 → S 4 puede ser interpretado como el haz de un
instantón de carga 1.
4. Haces Vectoriales
Al igual que los haces principales, los haces vectoriales son utilizados para
describir estructuras fı́sicas. Con los haces vectoriles se pueden representar los
sistemas de coordenadas de una variedad, los vectores del espacio tangente, etc. Es
por eso de su importancia. Su definición formal es como sigue.
Definición 17.31. Un haz vectorial de dimensión n es un haz fibrado donde
cada fibra es un espacio vectorial de dimension n. Las funciones de transición
forman el grupo GL(n, ℜ). Vean la figura 3.
Figure 3. La representación gráfica de un haz vectorial.
Para enteder la definición, vamos a ver algunos ejemplos sencillos.
Ejemplo 17.32. El cilindro S 1 × ℜ es un haz vectorial trivial mientras que la
cinta de Möbius es un haz vectorial no trivial, con fibra ℜ.
320
17. HACES FIBRADOS
Ejemplo 17.33. Una variedad con su espacio tangente en cada punto forma
un haz vectorial llamado el haz tangente. Sea u ∈ T M = ∪ {p} × Tp M n
p∈M
un punto en la intersección Ui ∩ Uj tal que π (u) = p ∈ Ui ∩ Uj , donde {Ui } y
{Uj } son cubiertas abiertas de M n , varidad. Sean ϕi : Ui → ℜn y ϕj : Uj →
ℜn los homeomorfismos
de la variedad, tal que ϕi (u) = (x1 , · · · , xn ) y ϕj (u) =
1
n
y , · · · , y , son sistemas de coordenadas en cada abierto. Un vector v sobre el
espacio tangente Tp M se puede escribir
∂ vp = vpµ = vepµ µ .
∂y p
Las trivializaciones locales estarán dadas por
φi : π −1 (Ui )|
u
φj : π −1 (Uj )|
u
→ U i × ℜn
→ φi (u) = p, vp1 , · · · , vpn
→ U j × ℜn
→ φj (u) = p, vp1 , · · · , vpn
π (u) = p donde hemos utilizado el isomorfismo natural
iso : T M
µ ∂ v
µ
∂x p
,
→ ℜn
→
!
µ ∂ = vp1 , · · · , vpN .
iso v
µ
∂x p
Comentario 17.34. Se puede dotar al haz tangente de una estructura diferenciable.
v
Las funciones v µ y veµ están relacionadas entre si por vpµ = Gµpv vep,
dode
∈ GL (n, ℜ) es una transformación lineal de espacios vectoriales. Una construcción totalmente análoga se pude hacer con el espacio cotangente, llamada el
haz cotangente . En ambas, las secciones serán campos vectoriales
Gµpv
v : Ui
p
→ TM
!
∂
→ v(p) = p, v µ µ ∂x
p
o campos de 1-formas
w : Ui
→ T ∗M
p → w (p) := (p, wµ dxµ |p )
Ejemplo 17.35. Del ejemplo 15.6 podemos construir el haz vectorial T S 2 . Tenemos
(x, y)
= (uN , vN )
σN (x, y, z) =
1−z
y llamemos
(x, y)
σS (x, y, z) =
= (uS , vS ) .
1+z
Ellos están relacionados por
v−
u−
, vN = 2
.
uN = 2
uS + vS2
uS + vS2
4. HACES VECTORIALES
321
Si escribimos uS = r cos (θ) y vS = r sin (θ), tenemos que uN = cos (θ) /r, y
vN = sin (θ) /r, entonces las trivializaciones estaran dadas por
1 ∂
2 ∂
= p, vp1 , vp2 ,
+u
|p
φN p, v
∂uN
∂vN
2 ∂
1 ∂
+u
e
|p
= p, e
vp1 , vep2
φS p, ve
∂uS
∂vS
con la función de transición
∂ (uN , vN )
1
− cos (2θ) − sin (2θ)
gSN =
= 2
sin (2θ)
− cos (2θ)
∂ (uS , vS )
r
Para terminar este capı́tulo, vamos a ver como podemos asociar a cada vector
del haz vectorial un vector de ℜn , de esta manera podemos trabajar con la fibra
del haz, que de hecho son vectores. Veamos esto.
Definición 17.36. Sea ζ = (A, B, πB , F, {Uα }) haz fibrado y η = (P, B, π, G; {Uα } , ψ)
un haz principal, ambos con la misma base y grupo de estructura. Se dice que ξ es
un haz asociado a η, si las cubiertas {Uα } de ξ y η trivializan tanto a A como a P
con las mismas funciones de estructura.
Un ejemplo sencillo de la definición anterior es el siguiente.
Ejemplo 17.37. Si en el haz tangente asociamos a cada vector base
µ
∂
∂xµ
=
(0, · · · , 1, · · · , 0), lo que obtenemos es un marco de referencia para cada punto.
Este haz es llamado el haz de marcos y es un haz asociado al haz tangente o
cotangente.
CHAPTER 18
GRUPOS DE LIE
Desde el descubrimiento de las teorı́as de norma, los grupo de Lie han tomado
una relevancia en todas las areas de la fı́sica, quı́mica y la ingenierı́a. Ya anteriormente se sabia que las simetrias de los problemas conducia a la existencia de
grupos actuando en espacios asociados al problema. Esta asociación esta presente
también en las teorı́as de norma, en donde un grupo de simetrı́a esta actuando sobre un espacio asociado al problema fı́sico, en este caso esta actuando en el espacio
de isoespin. Los grupos de Lie son variedades suaves con estructura de grupo, en
analogı́a a los grupos topológicos. En este campı́tulo también vamos a introducir
algunos conceptos que vamos a necesitar para la comprención de los grupos de Lie,
como es el concepto de campos invariates por la izquierda.
1. Campos Invariantes por la Izquierda
La definición de grupos de Lie es como sigue.
Definición 18.1. Un grupo de Lie es una terna (G, ·, A) donde (G, ·) es un
grupo, (G, A) es una variedad y las funciones.
1) · : G × G → G, (g1 , g2 ) → g1 · g2
2) inv : G → G,
g → g −1
son suaves.
En general es suficiente con checar que
µ:G×G → G
(g1 , g2 ) → µ (g1 , g2 ) = g1 · g2−1
i
es suave. Un subgrupo de Lie H de G es un grupo en el que H ֒→ G es un encaje,
o sea si i y di son inyectivas.
Ejemplo 18.2. Uno de los ejemplos mas simples de grupo de Lie es el cı́rculo
S 1 . Como ya hemos visto, el cı́rculo es una variedad diferenciable sobre ℜ. Como
grupo, podemos asociar a cada punto su representación polar, es decir z = eiθ ,
de tal forma que x2 + y 2 = z z̄ = 1. Ahora definimos el producto del grupo como
z1 z2 = eθ1 +θ2 . Claramente, con esta definición S 1 es un grupo abeliano. Y es un
grupo de Lie porque la función µ(z1 , z2 ) = z1 /z2 = e(θ1 −θ2 ) es sueve.
Ejemplo 18.3. Un ejemplo que no es un grupo abeliano, es la esfera S 3 . Como
ya vimos, podemos parametrizar la esfera S 3 como (x1 )2 + (x2 )2 + (x3 )2 + (x4 )2 =
z 0 z̄ 0 + z 1 z̄ 1 = 1, donde z 0 = x1 + ix2 y z 1 = x3 + ix4 . Ahora definamos las matrices
0
z −z 1
U=
z1 z0
323
324
18. GRUPOS DE LIE
en donde el determinante de ellas esta dado por z 0 z̄ 0 + z 1 z̄ 1 = 1. Ahora definimos
el producto en S 3 dado por el producto de matrices. Como el determinante es
uno, estas matrices forman un grupo no abeliano. Es decir, con este producto
la variedad diferenciable S 3 es un grupo llamado SU (2), el grupo de las matrices
unitarias complejas de dos dimensiones.
Ejercicio 18.4. Demuestre que el grupo SU (2) es un grupo de Lie con el
producto definido en el ejemplo anterior.
En lo que sigue veremos algunas estructuras en los grupos de Lie. Iniciaremos
con algunas propiedades de las traslaciones derecha e izquierda sobre los grupos.
Proposición 18.5. Las traslaciones derecha e izquierda son difeomorfismos.
Demostración 18.6. Sea (G, ·, A) grupo de Lie, con
Lg : G → G
g ′ → Lg (g ′ ) = gg ′ y
Rg : G → G
g′
→ Rg (g ′ ) = g ′ g.
Claramente Lg y Rg son suaves con inversas Lg = Lg y Rg−1 = Rg−1 suaves. Para ahorrar espacio, en lo que sigue estudiaremos todas las proposiciones y
teoremas ası́ como sus demostraciones solo por la izquierda, las demostraciones
por la derecha son completamente análogas. Daremos un pequeño comentario sólo
cuando sea necesario, vamos a introducir el concepto de invariante por la izquierda.
Definición 18.7. Sea X ∈ T G en donde (G, ·, A) es grupo de Lie. Se dice que
X es invariante por la izquierda (por la derecha) ó Lg -invariante (Rg -invariante)
si
d Lg |g′ (Xg′ ) = Xg′ ◦ L∗g = Xgg′ d Rg |g′ (Xg′ ) = Xg′ ◦ Rg∗ = Xg′ g ,
para todos g, g ′ ∈ G.
La primera consecuencia de esta definición, es que estos vectores quedan determinados si escogemos un solo punto de ellos. En particular se escoge su valor en
la identidad, aunque cualquier punto podrı́a ser igual de bueno para esto. Formalmente tenemos.
Proposición 18.8. Todo campo vectorial invariante por la izquierda o derecha
es determinado por su valor en la identidad.
Demostración 18.9. Sea (G, ·, A) grupo de Lie y X ∈ T G invariante por la
izquierda. Se cumple d Lg |e (Xe ) = Xg . Análogamente para Rg . De la misma forma, si un vector se puede trasladar por la acción izquierda de
ese vector en la identidad, esto implica que el vector es invariante por la izquierda.
Veamos esto.
Proposición 18.10. Si X ∈ T G en un grupo de Lie y se cumple que Xg =
d Lg |e (Xe ) para todo g ∈ G, esto implica que X es invariante por la izquierda
(análogamente por la derecha).
1. CAMPOS INVARIANTES POR LA IZQUIERDA
325
Demostración 18.11. Observemos que Lgg′ = Lg ◦ Lg′ , esto implica que
dLgg′ = dLg ◦ dLg′ = d Lg |g′
o más especı́ficamente
d Lg |g′ (Xg′ )
= d Lg |g′ ◦ d Lg′ |e (Xe )
= d (Lg ◦ Lg′ )|e (Xe )
= d Lgg′ |e (Xe )
= Xgg′ ,
esto implica que X es invariante por la izquierda (lo mismo por la derecha). De aquı́ en adelante solo consideraremos vectores invariantes por la izquierda o
por la derecha. El espacio tangente será un espacio exclisivamente de estos vectores.
iso
Esto implica que Tα G ∼
= Tg G para todo g ∈ G . De hecho se puede demostrar
que para todo grupo de Lie, el haz tangente es un haz trivial, ya que la fibra
está formada por vectores invariantes por la izquierda, los cuales están globalmente
definidos y estos forman secciones globales en el haz.
Un resultado interesante que vamos a usar en este capı́tulo para definir el
álgebra de Lie, es que los parentesis de Poisson estan ϕ relacionados si los vectores
lo estan. Esto es.
Proposición 18.12. Sean (X, Y ) y (X ′ , Y ′ ) ∈ T M m × T N n , M m , N n variedades y ϕ ∈ C ∞ (M m , N n ) tal que X, Y y X ′ , Y ′ están ϕ relacionados. Entonces
([X, X ′ ] , [Y, Y ′ ]) están ϕ-relacionados.
Demostración 18.13. Sea f ∈ C ∞ (N, ℜ). Entonces
[Y, Y ′ ] (f ) ◦ ϕ
pero se cumple que ϕ∗ ◦ Y
∗
= (Y (Y ′ (f )) − Y ′ (Y (f ))) ◦ ϕ
= Y (Y ′ (f )) ◦ ϕ − Y ′ (Y (f )) ◦ ϕ = ∗
= X ◦ ϕ∗ , entonces
= ϕ∗ (Y (Y ′ (f ))) − ϕ∗ (Y ′ (Y (f )))
= ϕ∗ ◦ Y (Y ′ (f )) − ϕ∗ ◦ Y ′ (Y (f ))
= X ◦ ϕ∗ (Y ′ (f )) − X ′ ◦ ϕ∗ (Y (f ))
= X (ϕ∗ ◦ Y ′ (F )) − X ′ (ϕ∗ ◦ Y ′ (f ))
= X (X ′ ◦ ϕ∗ (f )) − X ′ (X ◦ ϕ∗ (f ))
= [X, X ′ ] (f ) ◦ ϕ,
entonces [X, X ′ ] está ϕ relacionado con [Y, Y ′ ]. Es decir, si nos limitamos a los vectores del espacio tangente que son ϕ relacionados por la acción izquierda, podemos tener una estructura de álgebra en el
espacio tangente del grupo de Lie. A esta álgebra se le conoce como el álgebra
de Lie del grupo de Lie. Es decir, en un grupo de Lie, el subespacio del espacio
tangente de los vectores asociados por la acción izquieda forman el álgebra de Lie
asociada al grupo. Veamos esto formalmente.
Corolario 18.14. Los campos invariatens por la izquierda forman una subálgebra G de T G llamada Álgebra de Lie correspondiente al grupo de Lie G.
326
18. GRUPOS DE LIE
Esta subálgebra es isomórfica a T eG en cada punto g ∈ G. Se acostumbra
tomar el álgebra de Lie G respecto a G como el álgebra de vectores invariantes por
la izquierda en la identidad e ∈ G . Si dLg (X) = X y dLg (Y ) = Y , resulta que
dLg ([X, Y ]) = [X, Y ].
2. La Función Exponencial
En esta sección vamos a introducir la función exponencial. Esta función mapea
elementos del álgebra de Lie al grupo de Lie correspondiente. Sus propiedades nos
recuerdan a la función exponencial en ℜ, por eso su nombre. Para poder definir
esta función, primero tenemos que introducir algunos conceptos y adaptar conceptos
conocidos a los grupos de Lie. Vamos a iniciar con la introducción de un grupo
uniparametrico de transformaciones en el grupo de Lie. Para esto vamos a ver
primero una proposición que utilizaremos aquı́.
Proposición 18.15. Sea (M n , A) variedad diferenciable y F ∈ Dif (M n ). Sea
X ∈ T M n y ψ el grupo 1-paramétrico inducido por X. Entonces X es F-invariante
ssı́ ψt ◦ F = F ◦ ψt .
Demostración 18.16. Xy = ψ̇y (0), (tomando ψy (0) = y) y dF |y (Xy ) =
Xy ◦ Fy∗ , donde Xy es el vector tangente al camino ψ̇y en y y dF |y (Xg ) es el
vector tangente al camino ψF (y) = F ◦ ψy en F (g). Se tiene que
F ◦ ψy (t) =
=
F ◦ ψt (y)
F ◦ ψt ◦ F −1 (F (y))
⇒) Si X es F-invariante
XF (y) = dF |y (Xg ) , esto es
ψ̇F (y) (0) = XF (y)
por lo tanto
ψF (y) (f ) =
=
ψt
⇐) Si
=
ψt (F (y))
F ◦ ψt ◦ F −1 (F (y)) , i.e.
F ◦ ψt ◦ F −1
ψt = F ◦ ψt ◦ F −1
esto implica que
ψF (t) (t) = ψt (F (y))
y esto implica que
ψ̇F (y) (0) = XF (y)
es decir
XF (y) = dF |y (Xg )
Usando la proposición anterior podemos definir la función exponencial. Su
definición es como sigue.
2. LA FUNCIÓN EXPONENCIAL
327
Definición 18.17. Sea G grupo de Lie y X ∈ G el álgebra correspondiente
a G. Sea ψ el grupo uniparamétrico que induce a X y ψ1 ∈ {ψt }. La función
exponencial se define como
exp : G
X
Es decir
→ G
→ exp (X) := ψ1 (e) = ψe (1) .
ψ :ℜ×G → G
(t, g) → ψ (t, g) ;
con
i) ψ (0, g) = g,
ii) ψ (t + s, g) = ψ (t, ψ (s, g)); X = ψ̇e y ψe (0) = e
La primera propiedad, la cual nos recuerda una de las propiedades de la exponencial de los reales, es que la exponencial del vector 0, es la identidad en el grupo.
Veamos esto.
Proposición 18.18. exp (0) = e
Demostración 18.19. ψ̇e = 0 implica que ψe (t) = cte ∈ G, pero ψe (0) = e,
por lo tanto ψe (t) = e. Entonces exp (0) = ψe (1) = e. El punto interesante ahora, es que con este valor se puede obtener el valor de
la exponencial a lo largo de un parametro. Se sigue la proposición:
Proposición 18.20. exp (tX) = ψt (e) = ψe (t)
Demostración 18.21. Sea ψ̇e (t) = X, vamos a denotar ψe = ψX . Entonces
d
xi ◦ ψX = X i ◦ ψX
dt
en las coordenadas locales de G. Probemos primero que ψrX (t) = ψX (rt), i.e.
ψ̇rX (t) = (rX) = ψ̇X (rt)
lo que implica que
d i
d i
x ◦ ψrX (t) =
x ◦ ψX (rt)
dt
dt
i
= (rX) ◦ ψrX (t)
= rX i ◦ ψX (rt) .
Hagamos t′ = rt, se obtiene
d
d i
r ′ xi ◦ ψrX (t) = r
x ◦ ψX (t′ ) = rX i ◦ ψX (t′ )
dt
dt
lo cual es correcto. Entonces exp (tX) = ψtX (1) = ψX (t). De esta última expresión se tiene que
d
d
exp (tX) = ψ̇X (t) = XψX (t) ó
exp (tX)|t=0 = Xe
dt
dt
y también
exp (tX + sX) = ψX (t + s) = ψX (t) · ψX (s) = exp (sX) exp (tX) .
328
18. GRUPOS DE LIE
La propiedad anterior es la que más nos recuerda las propiedades de la exponencial, y es la que usaremos al trabajar con esta función. Para finalizar esta
sección, vamos a mencionar más propiedades de la función exponencial que serán
utliles, algunas sin demostración.
Proposición 18.22. Sea ψ el grupo uniparamétrico inducido por X ∈ G,
álgebra correspondiente a G, entonces ψt = Rexp(tX) .
Demostración 18.23.
ψt (g) = ψt (ge) = ψt ◦ Lg (e) = Lg ◦ ψt (e) = gψt (e) = g exp (tX) = Rexp(tX) (g) .
Proposición 18.24. exp: G → G tiene las siguientes propiedades:
i) exp es función suave
ii) d exp|0 = id|G
iii) Si U0 ∈ τG , exp|U0 es inyectiva
3. La representación Adjunta y la Forma de Maurer Cartan.
Esta sección la vamos a dedicar a una 1-forma que tiene gran importancia en
teorı́as de norma. Esta representación es el campo de norma para una teorı́a basada
en algún grupo de Lie, por eso su importancia. Aqui la vamos a introducir solo
desde el punto de vista matemático. Para iniciar vamos a ver algunas definiciones
que se van a utilizar más adelante. Primero definamos la función Ag .
Definición 18.25. Sea g ∈ G grupo de Lie y
Ag : G → G
g′
→ Ag (g ′ ) = gg ′ g −1
Lo interesante de Ag es que es un isomorfismo en el grupo de Lie.
Proposición 18.26. Ag ∈ Dif (G) y es un homomorfismo de grupos, es decir
es un isomorfismo de grupos de Lie.
Demostración 18.27. (Ag )−1 = Ag−1 y ambas Ag y Ag−1 son suaves, por
lo tanto Ag ∈ Dif (G). Ag (xy) = g(xy)g −1 = gxg −1 gyg −1 = Ag (x)Ag (y), por lo
tanto Ag es un homomorfismo. Comentario 18.28. Observen que Agg′ = Ag ◦ Ag′ para todos gg ′ ∈ G.
Para trabajar con los grupos, se utiliza el hecho que estos forman clases de
equivalencia, entonces lo más sencillo es trabajar con algun representante de la clase.
A este representante lo llamamos asi, un representante del grupo. Formalmente su
definición es como sigue.
Definición 18.29. Sea V un espacio vectorial, G un grupo de Lie y Gℓ(V ) el
conjunto de transformaciones lineales en V invertibles. Una representación de
G sobre V es un homomorfismo ϕ : G → Gℓ (V ) del grupo G al grupo (Gℓ (V ) , ◦).
Un representante singular es la representación adjunta del grupo, la cual se
define con la siguiente proposición.
3. LA REPRESENTACIÓN ADJUNTA Y LA FORMA DE MAURER CARTAN.
329
Proposición 18.30. La función
ϕ : G → Gℓ (Te G)
g → ϕ (g) := d Ag |e := Adg
es una representación de G sobre Te G, llamada la representación adjunta.
Demostración 18.31. d Ag |g′ : Tg′ G → Tgg′ g−1 G es un isomorfismo de espacios vectoriales y d Ag |e (ve ) = ve ◦ A∗g es una transformación lineal d Ag |e : Te G →
Te G, i.e. d Ag |e ∈ Gℓ (T eG). Además
ϕ (gg ′ ) = d Agg′ |e = d (Ag ◦ Ag′ )| |e = d Ag |e=A
g′ (e)
◦ d Ag′ |e
por lo que ϕ es un homomorfismo de grupos. Por otro lado, vamos a definir lo que es invarianza por la izquierda o por la
derecha de una 1-forma sobre el grupo de Lie. Recordemos que sobre el grupo, los
vectores interesantes son los vectores invariantes por la izquierda o la derecha, este
concepto lo podemos transladar al espacio cotangente de la siguiente forma.
Definición 18.32. Sea wg ∈ Tg∗ G, G grupo de Lie. wg es invariante por
la izquierda si para todos g, g ′ ∈ G,
L∗g g′ (wg′ ) = wg−1 g′
o wg es invariante por la derecha si
Rg∗ g′ (wg′ ) = wg′ g−1 .
Comentario 18.33. Noten que
L∗g g′ : Tg∗′ G → TL∗−1 (g′ ) G = Tg∗−1 g′ G
g
y
Rg∗
g′
: Tg∗′ G → TR∗ −1 (g′ ) G = Tg∗′ g−1 G.
g
Al igual que los vectores invariantes por la izquierda o derecha, las 1-formas
invariantes quedan determinadas por su valor en un punto, donde normalmente se
escoge la identidad. Veamos esto.
Proposición 18.34. Si w ∈ T G es invariante por la izquierda o por la derecha,
entonces w está determinada por su valor en la identidad del grupo.
ón 18.35. Sea w ∈ T G invariante por la izquierda, entonces wg =
Demostraci
∗
Lg−1 (we ), lo mismo por la derecha. e
Ya estamos listos para introducir la forma canónica de Maurer-Cartan. Su
definición formal esta dada como sigue.
Definición 18.36. Sea G grupo de Lie y G su respectiva álgebra. La forma
canónica o de Maurer-Cartan sobre el grupo de Lie G es la 1-forma wg ∈
Tg∗ G ⊗ G, con
wg : Tg G → Te G
Xg
→ wg (Xg ) := dLg−1 g (Xg ) .
La primera propiedad importante es que la forma de Maurer-Cartan esta determinada por su valor en la identidad. Es decir:
330
18. GRUPOS DE LIE
Proposición 18.37. Sea G grupo de Lie y w su forma de Maurer-Cartan.
Entonces w es invariante por la izquierda.
Demostración 18.38.
=
wg′ ◦ d Lg |g−1 g′ Xg−1 g′
L∗g g′ (wg′ ) Xg−1 g′
= d Lg′−1 g′ d Lg |g−1 g′ Xg−1 g′
=
d Lg′−1 g′ ◦ d Lg |g−1 g′ Xg−1 g′
= d Lg′−1 ◦ Lg g−1 g′ Xg−1 g′
= d Lg′−1 g−1 g′ Xg−1 g′ = wg−1 g′ Xg−1 g′
lo que implica que
L∗g
g′
(wg′ ) = wg−1 g′
Si la forma de Maurer-Cartan es invariante por la izquierda, cuando se toma
la acción derecha de ella, el resultado es una fórmula utilizada mucho en teorı́a de
norma. Vamos a ver ésta en la proposición que sigue.
Proposición 18.39. Sea G grupo de Lie y w su forma de Maurer-Cartan. Se
sigue que:
Rg∗ g′ (wg′ ) = Adg−1 ◦ wg′ g−1
Demostración 18.40.
(wg′ ) Xg′ g−1
=
wg′ ◦ d Rg |g′ g−1 Xg′ g−1
= d Lg′−1 g′ ◦ d Rg |g′ g−1 Xg′ g−1
= d Lg′−1 ◦ Rg g′ g−1 Xg′ g−1
′−1 = d Lg′−1 ◦ Rg g′ g−1 ◦ d L−1
Xg′ g−1
◦
L
′−1
gg
gg
g′ g−1
= d Lg′−1 ◦ Rg g′ g−1 ◦ d Lg−1
′ g −1 ◦ wg ′ g −1 Xg ′ g −1
e
= d L−1
g′ ◦ Rg ◦ Lg′ g−1 ◦ wg′ g−1 Xg′ g−1
e
= d Ag−1 e ◦ wg′ g−1 Xg′ g−1
= Adg−1 ◦ wg′ g−1 Xg′ g−1
Rg∗ g′
Para trabajar en una variedad con estructura de grupo, en un grupo de Lie,
se procede como sigue. Sean {V1 , · · · , Vn } una base de Te G. Con esta base
podemos definir una base a traves de todo el espacio T G usando vectores invariantes por la izquierda.
Sea {X1 , · · · , Xn } base de T G, tal que dLg (Vµ ) = Xµ (g)
d Lg |e (Vµ ) = Xµ ge y sean θµ ∈ T ∗ G sus duales, es decir, hθµ , Xν i = δνµ . Como
[Xµ , Xν ] es también invariante por la izquierda, se cumple que [Xµ , Xν ] = cλµν Xλ
donde las cλµν son las constantes de estructura del álgebra de Lie G, correspondiente
a G, ya que la cλµν puede ser determinada en e ∈ G. Esto se pude ver usando la
3. LA REPRESENTACIÓN ADJUNTA Y LA FORMA DE MAURER CARTAN.
331
invariacia por la izquierda. dLg ([Xµ , Xν ]) = cλµν Xλ (g) para todo g ∈ G. En particular para e ∈ G, lo que hace que cλµν no depende de g. A las constentes cλµν se les
conoce como constantes de estructura del grupo. Estas constantes cumplen
con algunas propiedades interesantes que quedaran como ejercicio.
Ejercicio 18.41. Demuestren que
a) cλµν = cλµν
b) cτµν cλτσ + cτσµ cλτν + cτνσ cλτµ = 0, identidad de Jacobi
La ecuación fundamental de las 1-formas en el espacio contangente de un grupo
de Lie es la que sigue.
base
Proposición 18.42. Sea G grupo de Lie y {θµ } ⊂ T ∗ G base del espacio
contangente de G. Entonces se cumple la ecuación
1
dθµ = − cµνλ θν ∧ θλ
2
donde las cµνλ son las constantes de estructura de G, el álgebra correspondiente a
G.
Demostración 18.43. Sabemos que
dθµ (Xν , Xλ ) = Xν (θµ (Xλ )) − Xλ (θµ (Xν )) − θµ ([Xν , Xλ ])
= Xν (δλµ ) − Xλ (δνµ ) − θµ (cνλ α Xα ) = −cνλ µ
se sigue que
1
− cαβ µ θα ∧ θβ (Xν , Xλ ) = −cµνλ
2
Asi mismo, la forma de Maurer-Cartan cumple con la misma ecuación anterior,
que se acostumbta escribir de una manera mas elegante. Esta forma la veremos en
la siguiente proposición.
Proposición 18.44. Sea G grupo de Lie y w su forma de Maurer-Cartan. La
forma de Maurer-Cartan w se puede escribir como
w = Vν ⊗ θν ;
w (g) := wg ,
iso
para toda g ∈ G, donde {Vµ } es la base del espacio tangente de G, Te G ∼
= G; {θµ }
base
es base del espacio cotangente de G, {θµ } ⊂ T ∗ G y satisface la ecuación
1
dθ + [θ ∧ θ] = 0.
2
Demostración 18.45. Sea Y = Y µ Xµ ∈ Tg G, con Xµ la base invariante por
la izquierda de T G, entonces
θ (Y ) =
=
=
=
Por otro lado
Y µ θ (Xµ )
Y µ d Lg−1 g Xµ |g
Y µ d Lg−1 g ◦ dLg (Vµ )|e
Y µ d Lg−1 ◦ Lg e (Vµ ) = Y µ Vµ
Vν ⊗ θν (Y ) = Y µ Vν θµ (Xµ ) = Y µ Vµ .
332
18. GRUPOS DE LIE
Observen que [θ ∧ θ] = [Vµ , Vν ] ⊗ θµ ∧ θν , se sigue entonces
dθ +
1
1
1
[θ ∧ θ] = − Vµ ⊗ cµνλ θν ∧ θλ + cµνλ Vµ ⊗ θν ∧ θλ = 0
2
2
2
4. Representación de Grupos y Algebras de Lie
El espacio de las matrices es el espacio vectorial más apropiado para usarse como
representantes de grupos y álgebras. En esta sección veremos los representantes de
los grupos más usados en fı́sica, quı́mica e ingenierı́a. Primero vamos a ver la
definición formal.
Definición 18.46. Sea G un grupo de Lie y H un grupo de Lie de matrices.
Una representación de G es un homomorfismo ϕ : G → H.
Definición 18.47. Sea G un álgebra de Lie y H un álgebra de Lie de matrices.
Una representación de G es un homomorfismo ϕ : G → H
Ya en la práctica, por lo general se trabaja con las representaciones matriciales
de los grupos o de las álgebras. Vamos a resumir las álgebras y grupos de matrices
más importantes.
Ejemplo 18.48. Sean GL (n, ℜ) y GL (n, C) los conjuntos de matrices no singulares n×n reales y complejas respectivamente. Estos conjuntos forman un grupo con
la multiplicación de matrices. Las coordenadas locales de ellos son las n2 entradas
(Xij ) = M ∈ GL, los cuales forman un grupo de Lie de dimensión n2 , real o compleja respectivamente. Topológicamente GL(n, ℜ) es un grupo no compacto, paracompacto y no-conexo. Sea c una trayectoria en GL(n, ℜ), c : (−ǫ, ǫ) →GL (n, ℜ),
2
c (0) = I la identidad en GL(n, ℜ). Cerca de cero c (s) = I +
sA + O s , A matriz
.
dc
n × n, real. El vector tangente de c (s) en I es ds = c (s) s=0 = A . Entonces el
álgebra correspondiente a GL(n, ℜ) es el conjunto gl (n, ℜ) de matrices reales n × n
(singulares o no). Análogamente, el álgebra gl (n, C) correspondiente a GL(n, C)
es el conjunto de matrices complejas n × n.
Vamos a ver algunos ejemplos de los grupos de Lie más usados en la fı́sica,
quı́mica e ingenierı́a. Primero vamos a estudiar ejemplos de subgrupos de GL (n, ℜ)
Ejemplo 18.49. O (n) := M ∈ GL (n, ℜ)| M T M = M M T = I llamadas
T
grupo ortogonal. Una curva en O (n) debe cumplir c (s) c (s) = I, por lo que si
T
T
la diferenciamos obtenemos ċ (s) c (s) + c s ċ (s) = 0. En s = 0 uno obtiene que
AT + A = 0. Entonces el álgebra correspondiente a O (n) es o (n), el conjunto de
matrices antisimétricas.
Ejemplo 18.50. SL (n, ℜ) := {M ∈ GL (n, ℜ)| det M = 1}, llamado el grupo
especial lineal . Si c es una trayectoria en SL (n, ℜ) , det c (s) = 1+s tr (A) = 1, o
sea tr (A) = 0. Entonces el álgebra correspondiente de SL (n, ℜ) es sl (n, ℜ), el conjunto de matrices con traza cero. La dimensión de este conjunto es dim SL (n, ℜ) =
n2 − 1.
Ejemplo 18.51. SO (n) = O (n) ∩ SL (n, ℜ), el grupo especial ortogonal,
su álgebra correspondiente es también o (n) = so (n). Ambas álgebras tienen di.
mensión dim o (n) = n(n−1)
2
4. REPRESENTACIÓN DE GRUPOS Y ALGEBRAS DE LIE
333
Igualmente, los subgrupos de GL (n, C) pueden clasificarse como sigue:
Ejemplo 18.52. U (n) = M ∈ GL (n, C)| M M T = M T M = 1 , el grupo
unitario. Su álgebra u (n) es el conjunto de matrices complejas antihermitianas
AT + A = 0.
Ejemplo 18.53. SL (n, C) = {M ∈ GL (n, C)| det M = 1}, el grupo especial
lineal complejo, su álgebra sl (n, C) es un conjunto de matrices complejas con
tr (A) = 0.
Ejemplo 18.54. SU (n) = U (n) ∩ SL (n, C), grupo especial unitario, su
álgebra su (n), es el conjunto de matrices complejas antihermitianas con traza cero.
Ejercicio 18.55. Demuestren con detalle que las álgebras de U (n), SL(n, C)
y SU (n) son respectivamente u(n), sl(n, C) y su(n).
Además existen una infinidad de grupos que se clasifican diferente. Veamos
algunos ejemplos explicitamente.
Ejemplo 18.56. El grupo de Lorentz se define como
O (1, 3) = M ∈ GL (4, ℜ) | M γM T = γ, γ = diag (−1, 1, 1, 1)
el cual no es compacto, es paracompacto y es no-conexo.
Ejercicio 18.57. Encuentren el álgebra de Lorentz correspondiente.
Ejemplo 18.58. Los grupos:
x −y
O (2) =
| x2 + y 2 = 1 ;
y x
hom
SO (2) ∼
=
(x, y) ∈ ℜ2 | x2 + y 2 = 1
son homomórficos, es decir O (2) = SO (2) y ambos son topológicamente S 1 , que
además es una variedad diferenciable. Su álgebra es
0 −a
o (2) =
| a ∈ ℜ = so(2).
a 0
Una base de esta álgebra como espacio vectorial, es
0 −1
o (2) =
.
1 0
Ejemplo 18.59. El grupo
hom
U (1) = SU (1) = {z ∈ C | zz = 1} ∼
=
(x, y) ∈ ℜ | x2 + y 2 = zz = 1, z = x + iy .
De nuevo U (1) es topológicamente S 1 .
Ejemplo 18.60. Como ya vimos anteriormente, el grupo
0
hom
z −z1
2 0 0
0 1
1 1
∼
∈
C
,
z
|
z
,
z
z
+
z
z
=
1
SU (2) =
= S3,
0
1
z
z
su correspondiente álgebra esta dada por:
c
a − ib
su (2) = i
| a, b, c, ∈ ℜ .
a + ib
c
Una base de esta álgebra 3-dimensional se puede escribir como sigue.
0 1
0 −i
1 0
σ1 = i
, σ2 = i
, σ3 = i
1 0
i 0
0 −1
334
18. GRUPOS DE LIE
Esta base se llama matrices de Pauli, y son la base canónica del álgebra su. Las
matrices de Pauli cumplen con las relaciones de conmutación
[σ1 , σ2 ] =
2iσ3 ,
[σ2 , σ3 ] =
[σ3 , σ1 ] =
2iσ1 ,
2iσ2 .
y suelen ser la base del modelo estándar de partı́culas elementales.
Ejercicio 18.61. Encuentren una base {σi } del álgebra o(2) y calculen sus
constantes de estructura ckij de la relación [σi , σj ] = ckij σk .
Ejercicio 18.62. Encuentren una base del espacio tangente del grupo SU (2)
y luego su base dual. Con ella construyan sus constantes de estructura. Contruyan
una base {σi }i=1,2,3 del álgebra su(2) y calculen también sus constantes de estructura ckij de la relación [σi , σj ] = ckij σk . Busquen una base del álgebra en donde los
dos conjuntos de bases de estructura sean iguales.
Ejercicio 18.63. Encuentren la forma de Maurer-Cartan para el grupo SU (2)
utlilizando la traslación izquierda sobre el grupo y luego calculen la traslación derecha
sobre ella. Finalmente apliquen este resultado a un vector del espacio tangente de
SU (2).
Ejercicio 18.64. Encuentren una base del espacio tangente del grupo de Lorentz
y luego su base dual. Con ella construyan sus constantes de estructura. Contruyan
una base {σi }i=1,2,3 del álgebra su(2) y calculen también sus constantes de estructura ckij de la relación [σi , σj ] = ckij σk . Busquen una base del álgebra en donde los
dos conjuntos de bases de estructura sean iguales.
Ejercicio 18.65. Encuentren la forma de Maurer-Cartan para el grupo de
Lorentz utlilizando la traslación izquierda sobre el grupo y luego calculen la traslación
derecha sobre ella. Finalmente apliquen este resultado a un vector del espacio tangente del grupo de Lorentz.
Part 7
APLICACIONES
CHAPTER 19
APLICACIONES
En este capı́tulo veremos un par de aplicaciones muy interesante de como se
puede usar todo el material que hemos aprendido a lo largo de este libro, primero
para resolver una clase de ecuaciones diferenciales, no lineales, en derivadas parciales
que son de mucha utilidad en fı́sica, quı́mica, ingenierı́a, etc. y segundo de como
se pueden entender espacios unificados en muchas dimensiones, geometrizando las
teorias de norma. Aquı́ vamos a ver de forma general y genérica como utilizar estos
métodos y daremos un ejemplo para un caso sencillo.
1. Ecuaciones Quirales
La aplicación a la que nos referimos es la resolución de las ecuaciones quirales1.
Estas ecuaciones son la generalización de la ecuación de Laplace para un grupo
arbitrario, aquı́ veremos como utilizando nuestro conocimientos de ecuaciones deferenciales, variable compleja, grupos de Lie, etc, podemos resolver estas complicadisimas ecuaciones. El método se llama mapeos armónicos y su poder y elegancia
son dignos de dedicarles esta capı́tulo.
Las ecuaciones quirales se definen como sigue
Definición 19.1. Sea G es un grupo de Lie paracompacto y g ∈ G un mapeo
tal que
g : C ⊗ C¯ → G
g → g(z, z̄) ∈ G,
Las ecuaciones quirales para g se definen como
(19.1)
(αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z = 0
donde α2 = det g
Se utiliza que el grupo de Lie sea paracompacto para que podamos garantizar
la existencia de una métrica en el espacio correspondiente. Normalmente g(z, z̄) se
escribe en una representación matricial de G. Las ecuaciones quirales es un sistema
de ecuaciones de segundo orden, en derivadas parciales, no lineales. Si g es solo una
función g = eλ , la ecuación quiral se transforma en la ecuación:
(19.2)
(αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z = (αλ,z ),z̄ + (αλ,z̄ ),z
Como veremos mas adelante, la función α = z + z̄. Si hacemos el cambio de variable
z = ρ + iζ, la ecuación (19.2) se transforma en
(19.3)
(ρ λ,ρ ),ρ + (ρ λ,ζ ),ζ = 0
1Este capı́tulo esta basado en el artı́culo Tonatiuh Matos. Exact Solutions of G-invariant
Chiral Equations. Math. Notes, 58, (1995), 1178-1182. Se puede ver en: hep-th /9405082
337
338
19. APLICACIONES
que es la ecuación de Laplace
en coordenadas cilı́ndricas. Si ahora hacemos el
√
cambio de variable ρ = r2 − 2m r + σ 2 sin(θ), ζ = (r − m) cos(θ) la ecuación
cambia a:
(19.4)
((r2 − 2m r + σ 2 )λ,r ),r +
1
(sin(θ)λ,θ ),θ = 0
sin(θ)
la cual se reduce para m = σ = 0 a la ecuaciación de Laplace en coordenadas
esféricas.
La primera propiedad de las ecuaciones quirales es que pueden ser derivadas de
una Lagrangiana dada por
L = α tr(g,z g −1 g,z̄ g −1 ).
(19.5)
Esta Lagrangiana representa una teoria topológica cuántica de campo con el grupo
de norma G y lo que vamos a hacer en este capı́tulo es estudiar un método para
encontrar la forma explı́cita de g ∈ G en términos de las coordenadas z y z̄.
Comentario 19.2. Sea Gc un subgrupo de G, es decir, Gc ⊂ G tal que c ∈ Gc
implica que c,z = 0 y c,z̄ = 0. Entonces la ecuación (19.1) es invariante bajo la
acción izquierda Lc de Gc sobre G. Decimos que las ecuaciones quirales (19.1) son
invariantes bajo este grupo.
La primera consecuencia importante de las ecuaciones quirales la estudiaremos
en la siguiente proposición.
Proposición 19.3. La función α = det g es armónica.
Demostración 19.4. Vamos a utilizar la fórmula tr(A,x A−1 ) = ln(det A),x .
Si tomamos la traza de las ecuaciones quirales (19.1), se obtiene:
0 = tr (αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z =
=
=
(α ln(det g),z ),z̄ + (α ln(det g),z̄ ),z
(α ln(α),z ),z̄ + (α ln(α),z̄ ),z
2α,zz̄
lo que implica que α,zz̄ = 0. Las ecuaciones quirales implican la existencia de un superpotencial β que
es integrable si las ecuaciones quirales se cumplen. Veamos esto en la siguiente
proposición.
Proposición 19.5. Sea β una función compleja definida por
(19.6)
β,z =
1
tr(g,z g −1 )2 ,
4(ln α),z
g∈G
y β,z̄ con z̄ en lugar de z. Si g cumple con las ecuaciones quirales, entonces β es
integrable.
1. ECUACIONES QUIRALES
339
Demostración 19.6. Vamos a usar que (g −1 ),x = −g −1 g,x g −1 en lo que sigue.
Primero observemos lo siguiente.
α
1
(g,z g −1 g,z g −1 )
tr
β,zz̄ =
4
α,z
,z̄
1
1
1
1
=
(αg,z g −1 ),z̄ g,z g −1 +
αg,z g −1 g,zz̄ g −1 −
αg,z g −1 g,z g −1 g,z̄ g −1
tr
4
α,z
α,z
α,z
α,zz̄
−1
−1
−
αg,z g g,z g
(α,z )2
1 1
tr (αg,z g −1 ),z̄ + α g,zz̄ g −1 − αg,z g −1 g,z̄ g −1 g,z g −1
=
4 α,z
1 1
tr (αg,z g −1 ),z̄ + (αg,z̄ g −1 ),z − α,z g,z̄ g −1 g,z g −1
=
4 α,z
ya que las matrices dentro de la traza pueden conmutarse sin afectar el resultado.
Si las ecuaciones chirales se cumplen para g, finalmente obtenemos:
1 β,zz̄ = − tr g,z̄ g −1 g,z g −1
4
Lo cual implica que β,zz̄ = β,z̄z Ahora vamos a construir el método de solución. Sea G el álgebra correspondiente del grupo de Lie G. Ya sabemos que la forma de Maurer-Cartan ωg en G,
definda por ωg = Lg−1∗ (g), es una 1-forma sobre G, que toma valores en G, es
decir ωg ∈ Tg∗ G ⊗ G
Vamos a definir un mapeo sobre G.
Definición 19.7. Se definen los mapeos Az y Az̄ del grupo de Lie a su algebra
correspondiente, dados por
Az : G ⇀ G
g ⇀ Az (g) = g,z g −1
Az̄ : G ⇀ G
g
⇀ Az̄ (g) = g,z̄ g −1
Si g es una representación de grupo G, entonces la 1-forma de Marure-Cartan
ω(g) = ωg la podemos escribir como:
(19.7)
ω = Az dz + Az̄ dz̄
Usando el hecho de que ωg se puede escribir como en (19.7), vamos a definir
una métrica en el espacio tangente de G, es decir sobre G.
Definición 19.8. El tensor
(19.8)
l = tr(dgg −1 ⊗ dgg −1 )
sobre G define una métrica sobre el haz tangente de G.
Con la definición de una métrica en G podemos definir las conexión y el tensor
de curvatura correspondientes. En particular la métrica (19.8) define la derivada
covariante. Particularmente, las matrices Az (g) y Az̄ (g) su derviada covariante
cumple una relación muy interesante, la cual veremos en el siguiente lema.
340
19. APLICACIONES
Lema 19.9. Sea G grupo de Lie y las matrices Az (g) y Az̄ (g) definidas como
en la definición 19.7 y l la métrica (19.8), con derivada covariante ∇. Entonces
∇a Ab − ∇b Aa = [Ab , Aa ]
(19.9)
Demostración 19.10. De la definición de Aa (g) = g,a g −1 , se tiene
∇a Ab − ∇b Aa
=
=
=
=
Ab,a − Aa,b − Γcab Ac + Γcba Ac
(gb g −1 ),a − (ga g −1 ),b
g,ab g −1 − g,a g −1 g,b g −1 − g,ba g −1 + g,b g −1 g,a g −1
Ab Aa − Aa Ab
Vale la pena definir el concepto de espacio simétrico en este punto.
Definición 19.11. Sea M una variedad paracompacta con métrica l. Se dice
que el espacio M es simétrico si el tensor de Riemman R derivado de l cumple con
∇R = 0
donde ∇ es la derivada covariante de M compatible con l
Con esto ya estamos listos para demostrar el siguiente teorema.
Teorema 19.12. La subvariedad de soluciones de las ecuaciones quirales S ⊂
G es una variedad simétrica con métrica dada por (19.8)
Demostración 19.13. Solo vamos a dar una guı́a de la demostración. Vamos
a tomar la parametrización λa a = 1, · · · n, sobre G. El conjunto {λa } es un sistema
coordenado de la variedad G n-dimensional. En términos de esta parametrización,
la forma de Maurer-Cartan ω puede escribirse como:
(19.10)
ω = Aa dλa ,
donde Aa (g) = ( ∂λ∂ a g)g −1 . Entonces las ecuaciones quirales pueden ser escritas
como
(19.11)
∇b Aa (g) + ∇a Ab (g) = 0,
donde ∇a es la derivada covariante definida por (19.8), es decir
(19.12)
∇a Ab = Ab,a − Γcab Ac
Claramente la ecuación (19.11) se sigue, ya que los coeficientes de conexión son
simétricos. Observemos que
(19.13)
l = tr[Aa (g) Ab (g)] dλa ⊗ dλb ,
entonces los coeficientes métricos estan dados por gab = tr[Aa (g) Ab (g)]. Usemos
la ecuación (19.9) en (19.11), de aqui se infiere la realción
1
[Aa , Ab ](g).
2
De (19.13) podemos calcular la curvatura de Riemann R. Se obtiene
(19.14)
∇b Aa (g) =
(19.15)
Rabcd =
1
tr(A[a Ab] A[c Ad] )
4
1. ECUACIONES QUIRALES
341
donde [a, b] significa conmutación de los ı́ndices. Esto es posible gracias a que G es
un espacio paracompacto. De aquı́ se sigue que
∇R = 0
Ya estamos listos para explicar el método para encontrar campos quirales explicitamente.
Sea Vp una subvariedad de G y {λi } i = 1, · · · , p coordenadas locales totalmente geodésicas sobre Vp . La variedad G es conocida, entonces podemos conocer
a la subvariedad Vp . De hecho, Vp es un subgrupo de G y Vp es también simétrico.
Las simétrias de G y Vp también son isometrias, ya que ambos son paracompactos
y la métrica Riemanniana (19.13) y i∗ l respectivamente, donde i es la restricción
de Vp sobre G heredan estas isometrias. Supongamos que Vp tiene d isometrias,
entoces se sigue que:
X
(19.16)
(αλi,z ),z̄ + (αλi,z̄ ),z + 2α
Γijk λj,z λk,z̄ = 0
ijk
donde i, j, k = 1, · · · , p, Γijk son los sı́mbolos de Christoffel de i∗ l y λi son parámetros
totalmente geodésicos sobre Vp . En términos de los parámetros λi las ecuaciones
quirales se pueden escribir como:
∇i Aj (g) + ∇j Ai (g) = 0
(19.17)
donde ∇i es la derivada covariante sobre Vp . La ecuación (19.17) es la ecuación de
Killing sobre Vp para las componentes de Ai . Puesto que conocemos de hecho a Vp ,
conocemos sus isometrias y por tanto conocemos sus vectores de Killing. Sea ξs ,
s = 1, · · · , d, una base del espacio de los vectores de Killing de Vp y Γs una base de
la subalgebra correspondiente al espacio Vp . Entonces podemos escribir:
X
(19.18)
Ai (g) =
ξsi Γs
s
donde ξs =
P
j ∂
j ξs ∂λj
y la derivada covariante de Vp esta dada por
1
∇j Ai (g) = − [Ai, Aj ](g)
2
Las matrices Ai cumplen con la condición de integrabilidad Fij (g) = 0, donde
(19.19)
(19.20)
Fij = ∇j Ai − ∇i Aj − [Aj, Ai ]
es decir, las Ai son puramente una norma.
La acción izquierda de Gc sobre G, dada por L : Gc ⊗ G → G preserva las
propiedades de los elemetos de S. Conocidos los vectores {ξs } y {Γs } uno puede
integrar los elementos de S, puesto que los Ai (g) ∈ G pueden ser mapeados de
regreso al grupo G utilizando el mapeo exponencial. Sin embargo, no es posible
mapear todos los elementos uno por uno, pero podemos hacer uso de la siguiente
proposición.
Proposición 19.14. La relación Aci ∼ Ai ssi existe c ∈ Gc tal que Ac = A◦ Lc ,
es relación de equivalencia.
Ejercicio 19.15. Demostrar la proposición anterior.
342
19. APLICACIONES
Esta relación de equivalencia separa el conjuto {Ai } en clases que llamaremos
[Ai ]. Sea T B un conjunto de representantes de cada clase, es decir T B = {[Ai ]}.
Podemos mapear el conjunto T B ⊂ G al subgrupo S por medio del mapeo exponcial
o por integración directa. Vamos a definir B como el conjunto de elmentos del
grupo mapeado por cada representante de las clases, es decir B = {g ∈ S | g =
exp(Ai ), Ai ∈ T B} ⊂ G. Los elementos de B son a su vez elementos de S porque
las Ai cumplen con las ecuaciones quirales i.e.B ⊂ S. Para construir el conjunto
completo S podemos seguir el siguiente teorema.
Teorema 19.16. (S, B, π, Gc , L) es un haz fribrado principal con proyección
π(Lc (g)) = g donde L(c, g) = Lc (g).
Demostración 19.17. Las fibras de G son las orbitas del grupo Gc sobre G,
Fg = {g ′ ∈ G | g ′ = Lc (g)}
para algún g ∈ B. La topologı́a de B es su topologı́a relativa con respecto a G. Sea
αF el espacio fibrado αF = (Gc × Uα, Uα , π), donde {Uα } es una cubierta abierta
de B. Tenemos el siguiente lema.
Lema 19.18. El espacio fibrado αF y α = (π −1 (Uα ), Uα, π|π−1 (Ua ) ) son isomórficos.
Demostración 19.19. El mapeo
ψα : φ−1 (Uα ) = {g ∈ S | g ′ = Lc (g), g ∈ Uα }c∈Gc
g′
→ Gc × Uα
→ ψα (g ′ ) = (c, g)
es un homeomorfismo y π|π−1 (Uα ) (g ′ ) = g = π2 ◦ ψα (g ′ ). Por el lema 19.18 se sigue que el haz fibrado α es localmente trivial. Para
terminar la demostración del teorema es suficiente con probar que los espacios Gc ,
(S, Gc , L) y (Gc × Uα, Gc, δ) son isomorficos. Pero esto es cierto ya que
es un isomofirmo. δ ◦ id|Gc × ψα = ψα ◦ L|Gc ×π−1 (Uα )
Usando este teorema es ya posible explicar el método que queremos estudiar.
Algoritmo 19.20. .
a) Dadas las ecuaciones quirales (19.1), invariantes bajo el grupo de Lie G,
escojan un espacio Riemannian simétrico Vp con d vectores de Killing, tal que
p ≤ n = dim G.
b) Encuentren una representación del álgebra de Lie correspondiente G compatible con la relación de conmutación de los vectores de Killing, via la ecuacion
(19.19).
c) Escriban las matrices Ai (g) explicitamente en términos de los parametros
geodésicos del espacio simétrico Vp .
d) Usen la proposición 19.14 para escoger las clases de equivalencia de {Ai } y
escogan un conjunto de representates
e) Mapen los representantes del álgebra de Lie al grupo correspondiente.
Las soluciones se pueden contruir usando la acción izquierda del grupo Gc sobre
el grupo G.
Este método quedará mas claro viendo un ejemplo.
1. ECUACIONES QUIRALES
343
Ejemplo 19.21. Vamos a tomar el grupo de Lie G = SL(2, R) y vamos a
seguir el método paso por paso.
a) Escogemos que V1 es el espacio unidimensional tal que i∗ l = dλ2 . Este
espacio es claramente un espacio Riemanniano simétrico con un vector de Killing.
b) El álgebra de Lie correspondiente es sl(2, R) y es el conjunto de matrices
reales 2×2 con traza cero. La ecuación de Killing se reduce a la ecuacion de Laplace
(19.2).
c) Usando la ecuación (19.19), obtenemos que
g,λ g −1 = A = constant.
d) Los representantes del conjunto de matrices reales 2 × 2 con traza cero {Ai }
estan dados por:
0 1
{[Ai ]} =
a 0
e) El mapeo de los representantes del álgebra de Lie al grupo se puede llevar a
cabo por la integración de la ecuacion diferencial matricial
g,λ = [Ai ]g.
Las soluciones dependen del polinomio caracteristico de [Ai ]. Se obtienen tres casos:
a > 0, a < 0 y a = 0. Para cada caso la matriz g se obtiene:
Para a > 0
1 a
1
−a
aλ
(19.21)
g=b
e +c
e−aλ ,
a a2
−a a2
donde 4bca2 = 1
Para a < 0
(19.22)
g=b
cos(aλ + ψ0 )
−a sin(aλ + ψ0 )
−a sin(aλ + ψ0 ) −a2 cos(aλ + ψ0 )
donde a2 b2 = −1
Y para a = 0 se tiene
(19.23)
g=
bλ + c
b
b
0
,
con b2 = −1, a, b, c y ψ0 son constantes. Ası́ que para cada solución λ de la ecuación
de Laplace (19.2) se tendrá una solución de la ecuacion quiral. La acción izquierda
del grupo SLc (2, R) sobre SL(2, R) se representa como
g ′ = CgD,
donde C, D ∈ SLc (2, R). g ′ va a ser también una solución de las ecuaciones quirales
(19.1).
Ejemplo 19.22. Si ahora escogemos una variedad V2 podemos obtener otra
clase de soluciones de las ecuaciones quirales para el mismo grupo. Todos las variedades dos dimensionales V2 son conformalmente planas. Sean λ y τ dos parametros del espacio V2 , ası́ que la métrica más general que podemos escribir para este
espacio es
dτ dλ
dl2 =
(l + kλz)2
344
19. APLICACIONES
Pero que V2 se simétrica implica que k es una constante. Un espacio V2 con curvatura constante tiene tres vectores de Killing. Sean
1
[(kτ 2 + 1)dλ + (kλ + 1)dτ ]
ξ1 =
2V 2
1
ξ2 =
[−τ dλ + λdτ ]
V2
1
[(kτ 2 − 1)dλ + (1 − kλ2 )dτ ]
ξ3 =
2V 2
donde V = 1 + kλτ , una base de los vectores de Killing de V2 . Las relaciones de
conmutación para estos tres vectores de Killing son:
1 2
= −4kΓ3 ,
Γ ,Γ
2 3
= 4kΓ2 ,
Γ ,Γ
3 1
(19.24)
= −4Γ2
Γ ,Γ
Pero para obtener las relaciones de conmutación de sl(2, R) tenemos que poner k =
−1. Una representación compatible del grupo sl(2, R) con las reglas de conmutación
(19.24) son las matrices:
−1 0
0 b
0 −b
1
2
3
Γ =2
,
Γ =
,
Γ =
0
1
a 0
a 0
donde ab = 1. Entoces las ecuaciones (19.18) quedan
2
1
τ −1
−1
g,λ g
= Aλ = 2
−a(1 + τ )2
V
2
1
λ −1
g,τ g −1 = Aτ = 2
−a(1
+ λ)2
V
como:
b(1 − τ )2
1 − τ2
b(1 − λ)2
1 − λ2
Integrando estas ecuaciones encontramos finalmente
1
c(1 − λ)(1 − τ ) e(τ − λ)
(19.25)
g=
e(τ − λ)
d(1 + λ)(1 + τ )
1 − λτ
donde cd = −e2 , a =
e
c
y b = − de . Para la ecuación armónica se obtiene
4τ
αλ,z λ,z̄ = 0
1 + λτ
4λ
(ατ,z ),z̄ + (ατ,z̄ ),z +
(19.26)
ατ,z τ,z̄ = 0
1 + λτ
Igualmente como antes, para cada solución de las ecuaciones (19.26) en la ecuación
(19.25) se obtiene una solución distinta para las ecuaciones quirales para el grupo
SL(2, R).
(αλ,z ),z̄ + (αλ,z̄ ),z +
2. Geometrización de Teorias de Norma
En esta sección2 veremos como geometrizar las teorias de norma y como usando
un espacio con mas dimensiones de las cuatro conocidas es posible unificar todas
las interacciones de la naturaleza. El problema que tienen estas teorias es que,
como la relatividad general, no pueden ser cuantizadas con las técnicas conocidas.
El problema es más profundo de lo que parece, pues algunas teorias de norma si se
2Una versión completa de esta sección se encuentra en Tonatiuh Matos and Antonio Nieto.
Topics on Kaluza-Klein Theories. Rev. Mex. Fs. 39, (1993), S81-S131
2. GEOMETRIZACIÓN DE TEORIAS DE NORMA
345
pueden cuantizar, las teorias geométricas no. La razon puede ser la forma en que
cada teoria entiende las interacciones de la naturaleza. Mientras que la interacción
es un concepto puramente geométrico en la relatividad general y en las teorias
geomt́ricas de unificación, en teoria de norma la interacción entre partı́culas se da
por medio de intercambio de partı́culas virtuales. Es posible que mientras no haya
un concepto unificado de como debe entenderse la interacción en la naturaleza, no
va a haber una teoria unificada de todas las fuerzas. Aquı́ nos vamos a concentrar
en las teorias geométricas de unificacón. Como veremos, la unificación de todas
las interacciones requiere de la matemática estudiada en estes libro. La razon de
estudiarla es puramente académico y no tiene un sentido fı́sico necesariamente. A
estas teorias geométricas de unificación se les llama también teorias de KaluzaKlein, por ser ellos los primeros en proponerlas.
Vamos a iniciar viendo como es posible geometrizar las teorias de norma. El
principio fundamental de la teoria general de la relatividad de Einstein es que las
interacciones gravitacionales son producto de la geometria del espacio-tiempo. La
materia le dicta al espacio-tiempo como curvarse, mientras que el espacio tiempo
determina la dinámica de la materia. Por supuesto queda abierta la pregunta si
todas las demás interacciones de la naturaleza también son geométricas. Estas
interacciones son modeladas con las teorias de norma. En principio uno puede
geometrizar las teorias de norma observando el principio de acoplamiento mı́nimo.
Este principio consite en substituir el momento de una partı́cula pµ , con el momento
pµ ⇀ pµ + eAaµ ta ,
(19.27)
donde las Aaµ son los potenciales de Yang-Mills y ta ∈ G, es la base del espacio
tangente a G, el grupo de invariancia de la teoria de norma. En un sistema coordenado, esto se puede interpretar como cambiar las derivadas parciales en el sistema
por la derivada coovariante Dµ = ∂µ + eAaµ ta en un espacio interno o espacio de
isoespin. Sin embargo, lo que definimos es una conexión en este espacio interno,
donde se cumple una relación de conmutación para la derivada covariante dada por:
(19.28)
donde las funciones Fµν =
(19.29)
[Dµ , Dν ] = −eFµν
a
Fµν
ta
estan dadas por:
a
a b c
Fµν
= ∂µ Aaν − ∂ν Aaµ + efbc
Aµ Aν
a
donde las constantes fbc
son las constantes de estructura del álgebra G, es decir
a
[tb , tc ] = fbc
ta
Con esta conexión podemos definir la curvatura del espacio. La diferencia aqui
es que el espacio interno no necesariamente tiene una métrica y la conexión Aaµ es
diferente a los sı́mbolos de Christoffel.
Sea P el haz fibrado principal (P, B 4 , π, G, U, ψ), o graficamente dado por:
G
↓
P
↓π
B4
con conexión ω y cuya fibra es un grupo paracompacto G y su base es un espacio
Riemanniano cuatro dimensional, vean la figura 1
346
19. APLICACIONES
Figure 1. El haz fibrado principal P , invariante ante el grupo
(la fibra) G y base el espacio tiempo plano B 4 . σ es una sección
cruzada del haz, π es la proyección y ϕ es una trivialización, compatible con σ.
Esta definición induce una métrica en P , ya que las hipótesis anteriores separan
el espacio en una parte vertical, dada por el grupo G y otra horizontal, determinada
por la sección cruzada σ. Ası́ la métrica sobre P puede ser definida como
(19.30)
ĝ(Ûv , V̂v )
= g̃(Ûv , V̂v )
ĝ(ÛH , V̂v )
= 0
ĝ(ÛH , V̂H )
= g(dπ(ÛH ), dπ(V̂H ))
donde g̃, g y ĝ son las métricas sobre G, sobre el espacio base B 4 y sobre P ,
respectivamente. Si {ω̂ A } es una base de las 1-formas definidas sobre P , la métrica
(19.30) puede ser escrita como
(19.31)
ĝ = gαβ ω̂ α ⊗ ω̂ β + Iab ω̂ a ⊗ ω̂ b ,
la cual es definida sobre todo P . Vamos a escribir la métrica ĝ en coordenadas
locales. P es un haz fibrado y por tanto es localmente un producto cartesiano de
un conjunto abierto U ∈ B 4 con la fibra G. Es decir, como ya vimos, existe un
homeomorfismo ϕ, llamado la trivialización de P tal que
ϕ:P → U ×G
x → (b, g)
con b ∈ U ⊂ B 4 y g ∈ G.
Sea {êa } una base del espacio tangente vertical de P y {êα } la base del espacio
complemento, el espacio horizontal, en nuestro caso de cuatro dimensiones. Por
definición, las proyecciones de los vectores base están dadas por:
(19.32)
dπ(êα )
dπ(êa )
= eα
= 0
donde {eα } es una base del espacio tangente del espacio base U .
2. GEOMETRIZACIÓN DE TEORIAS DE NORMA
347
Ahora vamos a proyectar los vectores base {êα } y {êa } al espacio tangente de
U × G usando la trivialización. La proyeccón de U × G sobre U es una proyección
canónica dada por
π1 : U × G → U,
(x, a)
→ x
de tal forma que
π = π1 ◦ ϕ
(19.33)
Tomemos la proyección de {êα , êa } a T (U × G) tal que
Bαβ eα − Am
α em
dϕ(êα ) =
(19.34)
Caβ eβ + Dam em
dϕ(êa ) =
donde {em } es una base invariante por la derecha del espacio tangente de G, tal que
{eα , em } es una base del espacio tangente de U × G. Pero de la ecuación (19.33)
tenemos:
dπ(êα ) =
(19.35)
ϕ(êa ) =
dπ1 ◦ dϕ(êα ) = Bαβ eβ = eα
dπ1 ◦ dϕ(êa ) = Caβ eβ = 0
i.e. Bαβ = δαβ y Caβ = 0. El conjunto dϕ(êa ) = Dam em es una base del espacio
tangente de G, el cual podemos reescribir simplemente como Dam em → ea . Entonces
obtenemos.
(19.36)
(19.37)
dϕ(êα ) =
dϕ(êa ) =
eα − Am
α em
ea .
De (19.37) es sencillo obtener la base del espacio contangente correspondiente, esta
es:
eα − Am
α em
ēA =
(19.38)
em
α
ω
A
(19.39)
ω̄
=
ω a + Aaα ω α
donde {ω β } es la base dual de {eα } y {ω m } es la base dual de {em }. Con esta base
ya podemos escribir la métrica ḡ del haz P en la trivialización U , obtenemos
(19.40)
β
ḡ = gαβ ω α ⊗ ω β + Inm (ω n + Anα ω α ) ⊗ (ω m + Am
β ω )
También podemos escribir la métrica (19.40) en un sistema coordenado, por ejemplo, sea
(19.41)
ωα
=
dxα
n
ω
Aaα
=
=
dxn
ekBαa
Iab
=
g̃ab
obtenemos
(19.42)
ḡ = gαβ dxα ⊗ dxβ + gnm (dxn + ekBαn ω α ) ⊗ (dxm + ekBβm ω β )
348
19. APLICACIONES
la cual se conoce como la métrica de Kaluza-Klein. A diferencia de la métrica original la cual fue postulada utilizando muchas hipótesis, esta es solo una construcción
siguiendo la filosofı́a de las teorias de norma.
Para obterner ĝ vamos a calcular el pull-back de ϕ, el cual esta dado por
ϕ∗ (X) = Xα ω̂ α + Xn (ω̂ n − Anβ ω̂ β )|ϕ−1
(19.43)
Entonces el pull-back de la base del espacio contangente de U × G es
ϕ∗ (ω α ) = ω̂ α ,
(19.44)
ϕ∗ (ω a + Aaα ω α ) = ω̂ a
de donde obtenemos
(19.45)
ĝ = ϕ∗ ḡ = gαβ ω̂ α ⊗ ω̂ β + Imn ω̂ n ⊗ ω̂ m |ϕ−1
i.e. (19.31). Es claro que g = gαβ ω α ⊗ω β es una métrica de B 4 y g̃ = Inm ω n ⊗ω n es
una métrica de G. Finalmente vamos a ver que las componentes Aaβ ω β ta pertenecen
a la conexión del haz P proyectada en B 4 . Para hacer esto, recordemos que la 1forma de coneccón ω ası́gna un cero a los vectores horizontales y un elemento del
algebra de Lie correspondiente a los vectores verticales. Podemos escribir ω como
ω = ω̂ a ta
(19.46)
Esto es ası́, ya que
(19.47)
ω(êα ) =
ω̂ a (êα )ta = 0
ω(êb ) =
ω̂ a (êb )ta = δba ta = tb .
Con este resultado ya podemos proyectar la conexión ω de P a U ⊂ B 4 . Para hacer
esto, definimos una sección cruzada usando la trivialización ϕ
¯ :U ⇀P
(19.48)
σ = ϕ−1 ◦ Id
¯ es la función identidad definida por
donde Id
¯ : U → U × G,
(19.49)
Id
(19.50)
x → (x, e)
con e es la identidad en G. Entonces el pull-back de σ aplicado a ω esta dado por
(vean la ecuación (19.44))
¯∗ ◦ ϕ−1∗ )(ω̂ a ta )
σ ∗ (ω) = (Id
(19.51)
¯ ∗ ((ω a + Aa ω β )ta ) = Aa ω β ta
= Id
β
β
esto es, A = Aaβ ω β ta es la proyección de la 1-forma de conexión hacia U y representa
el potencial de Yang-Mills en U .
Ejemplo 19.23. Vamos a construir el haz fibrado principal
G
↓
P
↓π
M4
en donde M 4 es el espacio tiempo plano, vean la figura 2.
Este haz fibrado tiene por fibra al grupo G. Ahi construimos la conexión del haz
utilizando las ideas anteriores. En un haz fibrado principal P , la conexión define a
2. GEOMETRIZACIÓN DE TEORIAS DE NORMA
349
Figure 2. El haz fibrado principal P , invariante ante el grupo
(la fibra) G y base el espacio tiempo plano M 4 . σ es una sección
cruzada del haz.
la 1-forma Maurer-Cartan ω tomando valores en el álgebra de Lie G correspondiente
a G. Toda teoria de norma esta basada en un grupo de Lie G. La teria de norma
más representativa es tal vez aquella basada en el grupo G = SU (2). Existe una
relación directa entre los elementos del álgebra de Lie y los elementos del espacio
tangente de G. Para SU (2) esta relación esta dada por los vectores base
∂
∂
z
−y
∂y
∂z
∂
∂
−z
x
∂z
∂z
(19.52)
∂
∂
y
−x
∂y
∂y

0 0
0
⇀  0 0
1
0 −1 0

0 0 −1
⇀  0 0 0
1 0 0

0
1 0
⇀  −1 0 0
0
0 0






La 1-forma ω de Maurer-Cartan se define con la relación (19.52) y la asociación
de las matrices del álgebra correspondiente de P en cada punto p ∈ P . El punto
crucial aqui es la proyección de la 1-forma ω al espacio base. Para hacer esto,
tomemos una sección cruzada σ en P , vean la figura 2. Con σ podemos proyectar
la 1-forma de conexión al espacio base
(19.53)
A = σ∗ ω
350
19. APLICACIONES
Otra sección cruzada σ1 , por supuesto, definira otra proyeccón de la conexión
′
A = σ1∗ ω
pero la relación entre A y A′ la obtenemos del siguiente teorema
′
Teorema 19.24. Sean A = σ ∗ ω y A = σ1∗ ω las conexiones derivadas de las
secciones cruzadas σ ∗ y σ1∗ , en un haz fibrado principal P , con grupo de estructura
G. Entonces
′
A = aAa−1 + ada−1
(19.54)
donde a es un elemento de transición de G.
Esta es una relación bien conocida en teorias de norma. Por ejemplo, para el
grupo G = U (1), que topologicamente es U (1) = S 1 , se tiene que un elemento de
S 1 puede ser escrito como a = eiϕ , entonces
(19.55)
′
A = eiϕ A e−iϕ − eiϕ de−iϕ = A + dϕ.
O escrito en componentes
(19.56)
′
Aµ = Aµ + ∂µ ϕ,
que es justamente la relación de norma del campo electromagnético. Es más, podemos escribir la 1-forma de conexión en general como:
(19.57)
ω = a−1 Aa + a−1 da
Por supuesto, bajo la acción derecha del grupo a ⇀ a′ = ab sobre las fibras de P ,
ω queda invariante
ω = a′−1 Aa′ + a′−1 da′
La curvatura se puede obtener de la relación
Ω = dω + ω ∧ ω = a−1 Ba
donde
1 a
B ta dxµ ∧ dxν
2 µν
Naturalmente Ω obedece las identidades de Bianchi
(19.58)
(19.59)
B = dA + A ∧ A =
dΩ + ω ∧ Ω − Ω ∧ ω = 0.
Ejemplo 19.25. Vamos a recordar rápidamente como se ve una solución de
las ecuaciones de norma invariantes ante el grupo U (1), el cual es, como ya vimos,
topológicamente el cı́rculo. El haz fibrado aquı́ consiste en una esfere S 2 cubierta
con una conexión invariante ante U (1), dada por
A+ = A− + dϕ.
Como vimos antes, una solución de las ecuaciones de Maxwell sobre la esfera S 2
esta dada por
1
A± = [±1 − cos(θ)]dϕ
2
que representa el monopolo de Dirac. La curvatura de esta conexión es
1
(19.60)
F = dA± = sin(θ)dθ ∧ dϕ.
2
2. GEOMETRIZACIÓN DE TEORIAS DE NORMA
351
Ejemplo 19.26. Otro ejemplo interesante es el instanton, el cual es la conexión
en un un haz fibrado
SU (2)
↓
P
(19.61)
↓π
S4
Anque esta construcción no tiene que ver con fı́sica, es solo una construcción
matemática.
Por otro lado, se pueden construir a las teorias de Yang-Mills con el formalismo
de haces fibrados, en este caso la fibra es el grupo de invariancia y la base el grupo
0(3, 1) o el grupo de Lorentz. Pero también se pueden construir las teorias de YangMills usando una base curva arbitraria. En lo que sigue de este capı́tulo vamos a
hacer esto.
Esto demuestra que el llamado ansatz de Kaluza-Klein no es necesariamente
un ansatz, sino la generalización natural de la teoria de norma a espacios curvos.
Sin embargo, algunos puntos deben de tomarse en cuenta.
Comentario 19.27. La descomposición (19.30) o (19.31) puede ser hecha solo
si ĝ es invariante ante el grupo G. Pero también podemos tomar el grupo cociente
G/H, donde H es un grupo normal de G. Por ejemplo, si G = SU (3) × SU (2) ×
U (1), el grupo máximo normal de G es el grupo H = SU (2) × U (1) × U (1), ası́ que
como la dimensión de G es 12 y la dimensión de H es 7, la dimensión mı́nima de
P para tener la métrica ĝ invariante ante el grupo SU (3) × SU (2) × U (1) es 7 +
4 = 11. Este parece ser un número mágico, pues es la dimensión de la teoria M y
de supergravedad.
Comentario 19.28. No hay un tratamiento mecánico cuántico de las teorias
de Kaluza-Klein, como no lo hay tampoco de la relatividad general. Pero al incorporar partı́culas del grupo SU (2), estas partı́culas necesariamente son cuánticas y por
tanto el tratatamiento mostrado aquı́ no puede explicarse a esas partı́culas. Pero la
contradicción es más profunda, pues si el campo gravitatorio son realmente las componentes de la métrica del espacio tiempo, entonces la cuantización de este espacio
implicarı́a que éste es discreto. Pero para tener métrica deberı́a ser un espacio T2 ,
de Haussdorff. Por tanto, un espacio discreto no puede tener métrica. La pregunta
que queda abierta es por supuesto si estamos interpretando bien las interacciones
de partı́culas a nivel cuántico o si la interpretación geométrica mostrada aquı́ es la
correcta. Ojala que algún lector de este libro nos de algun dı́a la respuesta.
CHAPTER 20
Indice Analitico
A
Absolutamente convergente
Acotado por arriba
Acotado por abajo
Actúa por la derecha
Acción Efectiva
Acción Libre
Acción Transitiva
Álgebra
Álgebra tensorial
Álgebra de Lie
Álgebra sobre un conjunto
Anillo
Anillo de los enteros
Anillo de los reales
Anillo conmutativo
Anillo con unidad
Anillo sin divisores de cero
Anillo cociente
Anillo ideal
Argumento
Atlas
Atlas equivalentes
Automorfismo
B
Base
Base coordenada
Biyectiva
Bola
C
Camino
Camino constante
Campocombinacion lineal
Campo de norma
353
354
20. INDICE ANALITICO
Campo ordenado
Carta
Cartas
Cartas compatibles
Cerradura lineal
Clase de equivalencia
Clausura
Celula de Jordan
Cerradura lineal
Codiferencial exterior
Coeficientes de Fourier
Cofactores de una matriz
Compactificación por un punto
Compactificación
Composición de mapeos
Composición
Complejo conjugado
Complemento ortogonal
Concatenación
Conceptos locales
Condiciones de Cauchy-Riemann
Conjunto abierto
Conjunto cociente
Conjunto compacto
Conjunto complementario
Conjunto complemento
Conjunto denso
Conjunto denso
Conjuntos de Borel
Conjunto de las funciones trigonométricas
Conjunto de funciones suaves
Conjunto diferencia
Conjunto parcialmente ordenado
Conjunto potencia
Conjunto universo
Conjunto vacio
Conexión
Constantes de estructura
Converge
Convolución
Coordenadas nulas
Coordenadas hiporbólicas
Cota superior
Cota inferior
Criterio de comparación
Cuadraturas
Cubierta
Curva
20. INDICE ANALITICO
Curva integral de un vector
D
Delta de Dirac
Delta de Kronecker
Derivada
Derivada exterior adjunta
Derivada de Lie
Desigualdad de Bernoulli
Determinante
Diagramas de Venn
Diferencial
Diensión (vectorial)
Distancia
Distancia canónica
Distancia discreta
Diferencial exterior
Distancia max
Dominio de definición
Dominio de la carta
Dominio integral
Dominio de valores
Dos Forma de Curvatura
E
Ecuación caracteristica
Ecuación de Difusión
Ecuación de Helmholtz
Ecuación de Killing
Ecuación de Laplace
Ecuación de onda
Ecuación de Poisson
Ecuación diferencial de Hermite
Ecuación diferencial de Laguerre
Ecuación diferencial de Legendre
Ecuación diferencial ordinaria
Ecuación lineal ordinaria de primer orden
Ecuación lineal ordinaria de segundo orden
Ecuaciones elipticas
Ecuaciones hiperbolicas
Ecuaciones parabolicas
Elemento neutro
Entorno
Epimorfismo
Escalar de Ricci
Espacio de Banach
Espacio abiertos
355
356
20. INDICE ANALITICO
Espacio base
Espacio cerrados
Espacio conexo
Espacio cotangente
Espacio con Medida
Espacio derecho
Espacio de Hausdorff
Espacio de Hilbert
Espacio izquierdo
Espacio de Lorentz
Espacio disconexo
Espacio Euclidiano
Espacio Medible
Espacio métrico
Espacio metrizable
Espacio métrico completo
Espacio normal
Espacio normado
Espacio ortogonal
Espacio paracompacto
Espacio Pseudo-Euclidiano
Espacio Pseudométrico
Espacio Pseudonormado
Espacio perpendicular
Espacio regular
Espacio tangente
Espacio topológico
Espacio total
Espacio vectorial
Espacio Unitario
Espacios homeomorfos
Espacios isomorfos
Espacios topológicos
Estructura diferenciable
Eigen valor
Eigen vector
F
Factor integrante
Factores invariantes
ϕ−relacionados
ϕ−invariante
Fibra del haz
Fibra sobre un haz
Finita por vecindades
Forma Armónica
Forma canónica diagonal
Forma canónica
20. INDICE ANALITICO
Forma Cerrada
Forma Cocerrada
Forma Coexacta
Forma Exacta
Forma de Maurer-Cartan
Full-back
Frontera de una función
Función
Función
Función abierta
Funcióon acotada
Función analı́tica
Función armónica
Función continua
Función continua
Función continua
Función exponencial
Función holomorfa
Función indicadora
Función medible
Función regular
Función simple
Funcı́on suave
Función suave en W
Funciones Elementales
Función de Green
Funciones de transición
Funciones de transición
Funciones suaves en una vecindad
G
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
Grupo
H
Abeliano
Conmutativo
de automorfismos
de estructura
de isometrı́as
de Lorentz
Ortogonal
Topológico
unitario
especial lineal
especial lineal complejo
especial ortogonal
especial unitario
uniparamétrico de transformación
357
358
20. INDICE ANALITICO
Haces isomórficos
Haz
Haz cotangente
Haz fibrado
Haz fibrado principal
Haz tangente
Haz trivial
Haz vectorial
Haz de Hopf
Haz de marcos
Homomorfismo
Homeomorfismo
I
Identidades de Bianchi
Identidad de Jacobi
Imagen de la carta
Imagen de un conjunto bajo una función
Imagen inversa de un conjunto bajo una función
Imagen reciproca
Imagen recı́proca
Inclusión
Inducción matemática
Indices covariantes
Indices contravariantes
Infimo
Integral de Gauss
Intersección de conjuntos
Invariante bajo ϕ
Invariante por la izquierda
Invariante por la derecha
Inversa de una matriz
Inversión conforme
Inyectiva
Isometrı́a
Isomorfismo
I-esima función coordenada
I-esima función coordenada del sistema de coordenadas
L
Lapaciano
Laplaciano
Lazo
Linealmente dependiente
Linealmente independiente
Lı́mite
Localmente finita
20. INDICE ANALITICO
Loop
1-forma
1-forma
M
Mapeo
Mapeo inverso
Mapeos lineales
Matriz adjunta
Matriz antihermitiana
Matriz antisimetrica
Matriz asociada al polinomio
Matriz caracteristica
Matriz cuasidiagonal
Matriz de Jordan
Matrices de Pauli
Matriz diagonal
Matriz hermitiana
Matriz nilpotentes de grado n
Matriz polinomial
Matriz regular
Matriz singular
Matriz simétrica
Matriz transpuesta
Matriz triagonal
Matrices equivalentes
Matrices similares
Maximo
Medida
Medida discreta
Medida de Dirac
Medida de Lebesgue
Medida discreta de probabilidad
Medida de probabilidad
Medida discreta de probabilidad
Métrica Euclideana
Métrica de Friedman-Robertson-Waker
Metrizable
Minimo
Modos normales
Módulo
Monoide
Monomorfismo
Monopolo de Dirac
Metodo de Gauss Jordan
N
359
360
20. INDICE ANALITICO
Norma
Norma Euclidiana
Norma de Lorentz
N-formas
N-formas
No pertenece al conjunto
Nucleo
O
Operador adjunto
Operador d’Alabertiano
Operador autoadjunto
Operador anti-autoadjunto
Operación Asociativa
Operación binaria
Operación Invertible por la izquierda
Operación Invertible por la derecha
Operación Conmutativa
Operador * de Hodge
Orden parcial
Ortogonales
Orden
P
Paréntesis de Lie
Parte Real
Parte Real
Parte imaginaria
Parte imaginaria
Pertenece al conjunto
Polinomios de Legendre
Polinomios de Hermite
Polinomios de Laguerre
Polinomios de Tchebichef
Polinomios de Jacobi
Polinomios de Gegenbauer
Polinomios de Tchebichef de segunda clase
Polinomios de Legendre
Polinomios asociados de Laguerre
Polinomio carateriztico
Polinomio minimo
Polinomio caracteristico de la ecuación diferencial
Polinomios de Bessel
Polo de orden m
Polo simple
Potencia n-ésima del conjunto
Primera forma fundamental de Cartan
20. INDICE ANALITICO
Producto entre clases de equivalencia
Producto escalar
Producto interno
Producto escalar
Producto interno
Producto escalar
Producto cartesiano
Producto de Lie
Producto tensorial
Propiedad topológica
Proyección
Proyección estereográfica
Prueba del cociente
Pseudo-producto interno
Pull-back
Pull-back de tensores covariantes
Punto singular
Punto singular aislado
Punto de adherencia
Punto interior
P-formas
R
Radio de convergencia
Rango
Realesnegativos
Realespositivos
Refinamiento
Región simplemente conexa
Región de conexión múltiple
Reglade Cramer
Reglasde Morgan
Relación
Relación antireflexiva
Relación antisimétrica
Relación n-áriasobre
Relación binaria
Relación de equivalencia
Relación de recurrencia
Relación reflexiva
Relación transitiva
Relación simétrica
Reparametrización
Representación adjunta
Representación de grupos
Restricción de mapeos
Rotación conforme
361
362
20. INDICE ANALITICO
S
Semicampo
Segunda forma fundamental de Cartan
Serie de Fourier
Serie de Fourier
Series de Laurent
Serie de Maclaurin
Serie de Taylor
Sección
Simbolos de Chistoffel
Semigrupo
Signatura de la Variedad
Singularidad removible
Singularidad evitable
Sistema completo
Sistema de coordenada local del haz
Sistema de coordenadas
Sistema de ecuaciones lineales
Sistema ortogonal
Sitema ortonormal
Sistema ortonormal
Solución unicamente determinada
Subanillo
Subgrupo
Subgrupo normalgrupo
Subespacio Vectorial
Subconjunto
Subconjunto propio
Subgrupo de Lie
Sucesión
Sucesión de Cauchy
Sucesión convergente
Superficie de Riemann
Suryectiva
Subgrupos
Subcubierta
Supremo
Subespacio topológico
T
Tensor
Tensor de Curvatura
Tensor de Einstein
Tensor de Levi-Civita
Tensor de Ricci
Tensor Métrico
Tetrada
20. INDICE ANALITICO
Tetrada Nula
Teorema de Abel
Teorema de Laplace
Teorema de Leibniz
Teorema del residuo
Transformación conforme
Transformación homográfica
Transformada integral
Transformada de Laplace
Transformada de Fourier
Transformada finita de Fourier
Transformación de similaridad
Transformaciones lineales
Transformación de dualidad
Traslación conforme
Trayectoria
Trivialización local
Traza
Traslación derecha
Traslación izquierda
Topologı́a cociente
Topologı́a discreta
Topologı́a inducida
Topologı́a inducida
Topologı́a indiscreta
Topologı́as de Sierpinski
Topologı́a relativa
U
Unión de conjuntos
Uno-formas
V
Valor absoluto
Valor propio
Variedad diferenciable
Variedad Euclidiana
Variedad Lorenziana
Variedad Pseudoriemanniana
Variedad Riemanniana
Variedad suave
Variedad suave
Variedades difeomórficas
Variedad real de dimensión n
Variedad real diferenciable
Vector de Killing
Vector contravariant
363
364
20. INDICE ANALITICO
Vector covariant
Vector nulo
Vectores perpendiculares
Vector propio
Vector tangente
Vector tipo espacio
Vector tipo nulo
Vector tipo tiempo
Vecindad
W
Wronskiano

Documentos relacionados