Las funciones especiales y la f´ısica matemática Índice

Transcripción

Las funciones especiales y la f´ısica matemática Índice
Las funciones especiales y la fı́sica matemática
Renato Álvarez Nodarse
Departamento de Análisis Matemático
Universidad de Sevilla e Instituto “Carlos I” de Fı́sica Teórica y
Computacional, Universidad de Granada.
Índice
1. Introducción
3
2. Breve introducción histórica
3
2.1. Las familias clásicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2. Las principales caracterizaciones de los polinomios clásicos. . . . . . . . . . . . . 9
2.3. Teorı́a general. Stieltjes y Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . 10
3. Los
3.1.
3.2.
3.3.
3.4.
3.5.
3.6.
3.7.
polinomios clásicos.
La ecuación diferencial hipergeométrica. . . . . . . . . . . . .
La ecuación en forma autoadjunta y sus consecuencias. . . . .
La relación de recurencia a tres términos y sus consecuencias.
Algunas consecuencias de la fórmula de Rodrigues. . . . . . .
Representación integral y función generatriz. . . . . . . . . . .
Los teoremas de caracterización . . . . . . . . . . . . . . . . .
Los Polinomios de Hermite, Laguerre y Jacobi. . . . . . . . . .
3.7.1. Parámetros Principales. . . . . . . . . . . . . . . . . .
3.7.2. Representación hipergeométrica. . . . . . . . . . . . . .
3.7.3. Funciones generatrices. . . . . . . . . . . . . . . . . . .
3.7.4. Otras caracterı́sticas. . . . . . . . . . . . . . . . . . . .
3.7.5. Los polinomios núcleos. . . . . . . . . . . . . . . . . . .
4. Los
4.1.
4.2.
4.3.
4.4.
4.5.
4.6.
4.7.
polinomios ortogonales clásicos de variable discreta
La ecuación en diferencias de tipo hipergeométrico . . . . .
La ecuación autoadjunta y sus consecuencias . . . . . . . .
La relación de recurrencia a tres términos . . . . . . . . . .
Algunas consecuencias de la fórmula de Rodrigues . . . . .
Las fórmulas de estructura . . . . . . . . . . . . . . . . . .
Representación integral y fórmula explı́cita . . . . . . . . .
Los Polinomios de Charlier, Meixner, Kravchuk y Hahn . .
4.7.1. Parámetros Principales . . . . . . . . . . . . . . . .
4.7.2. Representación hipergeométrica . . . . . . . . . . .
4.7.3. Otras caracterı́sticas . . . . . . . . . . . . . . . . .
4.7.4. Los polinomios núcleos . . . . . . . . . . . . . . . .
4.8. Relaciones lı́mites entre los polinomios clásicos . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
15
17
21
23
24
28
28
28
29
30
31
.
.
.
.
.
.
.
.
.
.
.
.
33
33
35
39
40
41
43
46
46
47
48
50
52
5. Algunas aplicaciones
55
5.1. Aplicación a la Mecánica Cuántica . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.1. El oscilador armónico cuántico . . . . . . . . . . . . . . . . . . . . . . . . 55
5.1.2. La ecuación hipergeométrica generalizada. . . . . . . . . . . . . . . . . . 56
1
5.1.3. Ejemplos. . . . . . . . . . . . . . . . . . .
5.2. La teorı́a de representación de grupos . . . . . . .
5.3. El grupo de rotaciones del espacio O(3). . . . . .
5.3.1. Las representaciones unitarias Dj de O(3)
5.3.2. Los coeficientes de Clebsch-Gordan . . . .
Referencias
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
57
60
62
65
69
73
2
1.
Introducción
En estas breves notas vamos a intentar dar una visión de los polinomios ortogonales clásicos
“continuos” y discretos y algunas de sus aplicaciones.
Para mayor claridad lo divideremos en cinco partes. La primera la dedicaremos a dar una
breve introducción histórica de los mismos, incluı́das algunas funciones especiales relacionadas
con ellos. A continuación, en la segunda parte, describiremos uno de los formalismos más sencillos desarrollado escencialemente por Nikiforov y Uvarov en los años 60. En el cuarto apartado
veremos como se puede generalizar las ideas expuestas para el caso anterior al caso discreto y
culminaremos, en el quinto y último apartado, describiendo algunas aplicaciones en problemas
de la Mecánica Cuántica ası́ como dando una breve introducción a la teorı́a de representación
de de grupos y mostrando su conexión con la teorı́a de polinomios ortogonales. La mayorı́a de
los temas tratados han sido tomados de [3].
2.
2.1.
Breve introducción histórica
Las familias clásicas
Los polinomios ortogonales corresponden a una pequeña parte de una gran familia de
funciones especiales. Su historia se remonta al siglo XVIII y está estrechamente relacionada con
la resolución de problemas de inmediata aplicación práctica. Uno de estos problemas estaba
relacionado con la, por entonces joven, teorı́a de la gravedad de Newton. Entre los numerosos
problemas relacionados con la teorı́a de la gravitación universal estaba el de encontrar las
componentes de las fuerzas de atracción gravitacional entre cuerpos no esféricos. Usando la ley
de gravitación de Newton éstas son iguales a
ZZZ
xi − ξi
fxi = −G
ρ(ξ1, ξ2 , ξ3 )
dξ1 dξ2 dξ3 ,
i = 1, 2, 3
(2.1)
r3
donde, x1, x2 y x3 son los tres ejes coordenados y
p
r = ( (x1 − ξ1 )2 + (x2 − ξ2)2 + (x3 − ξ3 )2
Un inconveniente de la fórmula anterior es que precisamos trabajar con tres funciones. Una
forma de eliminar el problema era introducir la función potencial. De hecho, era bien conocido
en el siglo XVIII que la fuerza de atracción entre dos cuerpos podı́a ser determinada a partir de
la función potencial V (x, y, z). Además, la misma era fácil de calcular conociendo la distribución
de masa —digamos su densidad ρ— en el interior del cuerpo mediante la fórmula:
ZZZ
∂V
ρ(ξ1, ξ2 , ξ3 )
(2.2)
dξ1 dξ2dξ3 , =⇒ fxi =
V (x1, x2 , x3 ) = G
r
∂xi
y, por tanto, calculando la integral es posible encontrar la función V . Esto, sin embargo, es
complicado ya que es necesario conocer a priori la distribución de masa de los cuerpos, la cual
es, en general, desconocida y además hay que unirle el hecho de que el cálculo directo de la
integral (2.2) suele ser muy engorroso —se trata de una integral triple que hay que integrar en
un volumen acotado pero con forma arbitraria—. Otra posibilidad era resolver la ecuación del
potencial para puntos exteriores al cuerpo: la ecuación de Laplace
∂ 2V
∂ 2V
∂ 2V
+
+
= 0.
∂x2
∂y 2
∂z 2
Esta noción del potencial y su relación con las fuerzas fue tratado por distintos matemáticos
de la talla de Daniel Bernoulli, Euler y Lagrange.
3
Vamos a describir una forma de calcular directamente las integrales
(2.1) en un caso especial: la atracción que un cuerpo de revolución ejerce
sobre otros cuerpos. Este problema interesó a Adrien—Marie Legendre
(1752–1833). Éste, en un artı́culo de 1782 titulado Sur l’attraction des
sphéroı̈des (aunque publicado en 1785), probó un teorema muy interesante
que establece que, si se conoce el valor de la fuerza de atracción de un
cuerpo de revolución en un punto exterior situado en su eje, entonces se
conoce en todo punto exterior. Ası́ redujo el problema al estudio de la
Adrien M. Legendre componente radial P (r, θ, 0), cuya expresión es
Z Z Z
(r − r 0) cos γ
02
sin θ 0 dθ 0dφ0 dr 0 ,
P (r, θ, 0) =
3 r
2
0
02
2
(r − 2rr cos γ + r )
donde cos γ = cos θ cos θ 0 + sen θ sen θ 0 cos φ0 .
¿Cómo resolvió Legendre el problema?
Legendre desarrolló la función integrando
2
02 − 23
0
(r − 2rr cos γ + r )
=r
−3
r02
r0
1 − 2 2 cos γ − 2
r
r
− 23
y usando la fórmula de binomio de Newton obtuvo
r02
r04
(r − r 0) cos γ
1
1 + 3P2 (cos γ) 2 + 5P4 (cos γ) 4 + . . . .
3 =
r2
r
r
(r 2 − 2rr 0 cos γ + r 02) 2
Ası́,
Z π
∞
2
4π X 2n − 3
1
P (r, θ, 0) = 2
P2n(cos θ) 2n
R2n+3 (θ 0)P2n(cos θ 0) sin θ 0 dθ 0,
r n=0 2n − 1
r
0
donde R(θ 0) es el valor de r 0 en un θ 0 y se conocen como la función de las curvas meridianas.
Las funciones P2, P4 , ... son funciones racionales enteras —polinomios— de cos γ, que hoy
se conocen como polinomios de Legendre se expresan mediante la fórmula
(2n − 1)!! n
n(n − 1) n−2 n(n − 1)(n − 2)(n − 3) n−4
x
+
x
+ ···
Pn(x) =
x −
n!
2(2n − 1)
2 · 4 · (2n − 1)(2n − 3)
Dos años más tarde en su segundo artı́culo escrito en 1784 (publicado en 1787) Legendre dedujo
algunas de las propiedades de las funciones P2n(x). Una es de particular importancia:
Z 1
π(x2 )P2m (x)dx = 0
grado π < m,
0
es decir, los P2n eran ortogonales!. También obtuvo la expresión:
Z 1
n(n − 2) · · · (n − 2m + 2)
,
xn P2m (x)dx =
(n + 1)(n + 3) · · · (2 + 2m + 1)
0
de donde se deduce la propiedad de ortogonalidad en su forma habitual:
Z 1
1
P2n(x)P2m(x)dx =
δn,m ,
4m + 1
0
4
∀n
siendo δmn el sı́mbolo de Kronecker. Usando ésta, muestra Legendre que “toda” función f (x 2)
se expresa como
∞
X
f (x2) =
cn P2n (x),
n=0
siendo los coeficientes cn determinados unı́vocamente. Habı́a nacido la primera familia de polinomios ortogonales de la historia. En ese mismo trabajo, Legendre probó que los ceros de P n
eran reales, distintos entre sı́, simétricos respecto al origen y menores, en valor absoluto que 1.
En su cuarto artı́culo sobre el tema (escrito en 1790, aunque publicado tres años más tarde)
introdujo los polinomios de grado impar, prueba la ortogonalidad general
Z 1
2
δn,m ,
Pn(x)Pm (x)dx =
2n + 1
0
ası́ como la ecuación diferencial lineal que satisfacen dichos polinomios Pn(x):
(1 − x2)Pn00 (x) − 2xPn0 (x) + n(n + 1)Pn(x) = 0.
También introduce ası́ como los hoy llamados polinomios asociados de Legendre P nm (x) que se
m m P (x)
(m)
n
expresan a través de los polinomios Pn de la forma Pn (x) = (1 − x2) 2 d dx
, y que son solum
ciones de la ecuación de Laplace en coordenadas esféricas tras aplicar el método de separación
de variables.
Los polinomios de Legendre fueron considerados también por Pierre—Simon Laplace (1749–
1827) quien en 1782 introdujo las funciones esféricas —que están directamente relacionadas
con los polinomios de Legendre— y demostró varios resultados relativos a ellas. También es
destacable otro resultado publicado en 1826 —Mémoire sur l’attraction des spheroides (Corresp.
sur l’Ecole Royale Polytech. III, 361–385)— por el francés Olinde Rodrigues (1794–1851). Se
trata de una fórmula para expresar los polinomios de Legendre,
1 dn (x2 − 1)n
Pn(x) = n
,
2 n!
dxn
conocida hoy dı́a como fórmula de Rodrigues.
La siguiente familia, en orden de aparición, fue la de los polinomios de
Hermite Hn llamados ası́ en honor a Charles Hermite (1822–1901) quien
los estudió junto con el caso de varias variables en su ensayo Sur un nouveau développement en série des fonctions (C. R. Acad. Sci. Paris, I) en
1864 (ver Œuvres, Gauthier-Villars, 1908, Tome II, 293–308), aunque al
Charles Hermite
parecer el primero en considerarlos fue Laplace en 1810 en su Mécanique céleste donde los
utilizó en problemas de teorı́a de las probabilidades. En este caso la ortogonalidad se expresa
2
respecto a la función e−x soportada en la recta real. Luego el ruso Pafnuti Lvovich Chebyshev
(1821–1894) realizó un estudio detallado de los mismos en 1859 —véase su artı́culo Sur le développement des fonctions à une seule variable (Oeuvres, Tom I, 501-508, Chelsea Pub. Co.)—.
En su trabajo Hermite estaba interesado en el desarrollo es series de funciones en R
F (x) = A0 H0 + A1 H1 + · · · An Hn + · · ·
H n ∈ Pn
con el objetivo de generalizarlos al caso de varias variables. Curiosamente construye los polinomios Hn diciendo que
2
dn e−x
2
= e−x Hn ,
n
dx
5
es decir utiliza una fórmula Rodrigues, obteniendo
(−1)nHn = (2x)n −
n(n − 1) n−2
n!
x
+ ··· +
(2x)n−2k + · · · ,
2
(n − 2k)!k!
en particular, deduce las propiedades
Hn+1 + 2xHn + 2nHn−1 = 0,
Hn0 = −(2n)Hn−1
y la ecuación diferencial lineal que satisfacen dichos polinomios
Hn00 (x) − 2xHn0 (x) + 2nHn (x) = 0.
Finalmente, prueba la ortogonalidad
Z ∞
√
2
Hn(x)Hm (x)e−x dx = 2n n! πδn,m .
−∞
La próxima familia, conocida como polinomios de Laguerre Lαn , deben su nombre a Edmond
Nicolás Laguerre (1834–1886). Estos polinomios ya eran parcialmente conocidos por Niels Henrik Abel (1802–1829) y Joseph-Louis Lagrange (1736–1813), aunque es nuevamente Chebyshev
el primero en realizar un estudio detallado de los mismos en 1859 en el trabajo antes citado
y que continuó el matemático ruso Konstantin Aleksandrovich Posse (1847–1928) en 1873. El
caso general para α > −1 fue estudiado por Yulian Vasilevich Sojotkin (1842–1827) en 1873,
y no es hasta
R ∞ 1879 que Laguerre los introduce —caso particular α = 0— cuando estudiaba la
integral x e−x x−1 dx, mediante su desarrollo en fracciones continuas.
R ∞ −x
En particular, Laguerre, en su memoria Sur l’intégrale x e x dx (Bull.
Soc. Math. France, VII, 1879) (ver Œvres, Gauthier-Villars,
R ∞ e−x 1898, 428–437),
prueba, entre otras cosas, la relación entre la integral x x dx, y la fracción
continua:
Z ∞ −x
e−x
φm (x)
e
dx =
,
= e−x
1
x
Lm (x)
x
x+1−
x+ 3 − ···
polinómicas de la ecuación
Nicolás Laguerre donde los denominadores L00m (x) son las soluciones
diferencial de Laguerre xy + (x + 1)y 0 − my = 0, m = 0, 1, 2, . . ., que no
son más que los hoy conocidos polinomios clásicos de Laguerre. Para ello,
Laguerre parte de la identidad
Z ∞ −t
Z ∞ −t
1
1
e
e
n+1 (n − 1)!
n
dt = − 2 + · · · + (−1)
+
(−1)
dt
t
x x
xn
tn+1
x
x
de donde deduce, tras diversas consideraciones, que
Z ∞ −t
Z ∞ −t
e
e
−x φm (x)
n
dt = e
+ (−1)
dt
t
Lm (x)
tn+1
x
x
donde los Ln satisfacen la ecuación diferencial lineal
xL00n + (1 − x)L0n + nLn = 0,
de la cual, usando el método de las series de potencia, deduce que
Ln(x) = xn + n2 xn−1 +
n2 (n − 1)2 n−2
n2 (n − 1)2 · · · (n − k + 1)2 n−k
x
+ ··· +
x
+ · · · n!
2!
k!
6
A continuación obtiene muchas propiedades de los Ln : que satisfacen la relación de recurrencia
Ln+1 (x) = (x + 2n + 1)Ln(x) − n2 Ln−1 (x),
la ortogonalidad
Z
∞
Γ(n + 1)
δn,m ,
n!
0
que los ceros de los Ln eran reales, no negativos y simples.
Ln(x)Lm (x)e−xdx =
Años más tarde, en 1880, otro estudiante de Chebyshev, Nikolai Yakovlevich Sonin (1849–
1915) continúa el estudio comenzado por Sojotkin sobre los polinomios con α > −1, probando,
entre otras cosas una relación de ortogonalidad más general,
Z ∞
Γ(n + α + 1)
Lαn (x)Lαm (x)xαe−x dx =
δn,m ,
n!
0
y una ecuación del tipo:
x(Lαn )00 + (α + 1 − x)(Lα)0n + nLαn = 0.
Es quizá por ello que que en algunos sitios a los polinomios Lαn (x) se les denomina polinomios
de Laguerre–Sonin.
Antes de pasar a nuestra última familia clásica debemos hacer una breve incursión en la
teorı́a de las ecuaciones diferenciales de segundo orden. Nuestro protagonista será esta vez una
ecuación diferencial.
Leonhard Euler (1707–1783), en la segunda mitad del siglo XVIII, desarrolló el método de integración de ecuaciones diferenciales ordinarias mediante series de potencias que usamos hoy. Una de las ecuaciones consideradas
por él fue —ver el Instituciones Calculi Integralis (1769)— la conocida hoy
dı́a como ecuación diferencial hipergeométrica
x(1 − x)y 00 + [γ − (α + β + 1)x]y 0 − αβy = 0
cuya solución es
α·β
α(α + 1) · β(β + 1) 2
α, β F(α, β; γ|x) ≡ 2 F1 γ x = 1 +
x+
x + ··· .
1·γ
1·2 · γ(γ + 1)
(2.3)
No obstante, fue Carl Friederich Gauss (1777–1855) en su famoso ensayo de 1813 Disquisitiones generales circa seriem infinitam ..., (Werke, II (1876), 123-162) sobre funciones
hipergeométricas quien realizó el estudio más completo de la ecuación anterior. En este ensayo
Gauss no hizo uso de la ecuación diferencial que sı́ utilizó más tarde en material inédito —
Disquisitiones generales circa seriem infinitam..., (Werke, III (1876), 207-229)—.
Leonhard Euler
Gauss reconoció que, para ciertos valores de α, β y γ, la serie incluı́a,
entre otras, casi todas las funciones elementales. Por ejemplo:
(1 + z)a = F(−a, b; b|−z),
Carl F. Gauss
log(1 + z) = zF(1, 1; 2|−z),
etc. Incluso comprobó que algunas de las funciones trascendentales como la
famosa función de Bessel Jn , se podı́a expresar también como serie hipergeométrica:
z2
zn
lı́m F λ, µ; n + 1; −
Jn (z) = n
2 n! λ → ∞
4λn
µ→∞
7
También Gauss estableció la convergencia de la serie e introdujo la notación F(a, b ; c|x) que
convive todavı́a con la notación moderna 2F1 a, b x .
c
Otro trabajo importante de Gauss fue su Methodus nova integrali um valores per approximationen inveniendi, (Werke III, 163–196) donde demuestra una fórmula de cuadraturas para
el cálculo aproximado (y eficiente) de integrales que constituye una de las aplicaciones más
importantes de los polinomios ortogonales. En concreto, Gauss “recuperó” los ceros de los polinomios de Legendre cuando buscaba dónde deberı́an estar los del polinomio de interpolación
(de Lagrange) para obtener la mayor precisión posible al integrar entre 0 y 1, aunque no utilizó la ortogonalidad de los polinomios (hecho que probablemente desconocı́a) sino la función
hipergeométrica 2 F1. La construcción de la fórmula de cuadraturas, tal y como la conocemos
hoy usando la ortogonalidad, se debe a nuestro próximo personaje, Karl Gustav Jacob Jacobi —Uever Gauss’ neve Methode die werthe der Integrale näherungsweise zu finden J. Reine
Angew. Math., 1 (1826) 301-308— (1804–1851), otro de los grandes matemáticos del siglo XIX.
Jacobi fue uno de los más grandes matemáticos del siglo XIX y no sólo
por sus aportaciones puramente teóricas, sino por su interés por resolver
dı́ficiles problemas de inmediata aplicación práctica —las famosas ecuaciones de Hamilton y Jacobi de la Mecánica, o sus trabajos en Mecánica de
Fluidos, por ejemplo—. Es notable su célebre frase:
Karl Jacobi
El señor Fourier opina que la finalidad de las matemáticas consiste en su utilidad pública y en la explicación de los fenómenos
naturales; pero un filósofo como él deberı́a haber sabido que la
finalidad única de la ciencia es rendir honor al espı́ritu humano
y que, por ello, una cuestión de números vale tanto como una
cuestión sobre el sistema del mundo
que quizá dió comienzo a esa absurda batalla de hoy dı́a sobre la prioridad de la Matemática
“platónica” basada en la idea de que la Matemática debe ser independiente de toda utilidad
inmediata de la Matemática aplicada de Fourier.
Fiel a esa idea platónica, Jacobi introduce una nueva familia que generaliza los polinomios de Legendre a partir de la función hipergeométrica de Gauss, sin importarle sus posibles
aplicaciones —recordemos que las familias anteriores habı́an aparecido de uno u otro modo
relacionadas con aplicaciones fı́sicas o matemáticas—. Ası́, en su artı́culo póstumo de 1859,
Untersunshungen über die Differentialgleichung de hypergeometrischen Reihe (J. Reine Angew.
Math. 56 149–165), definió la familia de polinomios
Γ(n + α + 1)
−n, n + α + β + 1 1 − x
α,β
Pn (x) =
,
2 F1
2
α+1
Γ(α + 1)n!
para la que demostró, entre otras, una propiedad de ortogonalidad en el intervalo [−1, 1] con
respecto a la función peso ρ(x) = (1 − x)α(1 + x)β , α > −1, β > −1, o sea,
Z 1
2α+β+1 Γ(n + α + 1)Γ(n + β + 1)
,
Pnα,β (x)Pmα,β (x) ρ(x)dx = δmn
(2n + α + β + 1)Γ(n + α + β + 1)n!
−1
donde Γ(x) denota la función Gamma de Euler. Es fácil comprobar (ver, por ejemplo, [6, 15, 17])
que tanto los polinomios de Laguerre como los de Hermite también se pueden escribir como
una función hipergeométrica no de Gauss, sino de las funciones hipergeométricas generalizadas
p Fq .
8
Los polinomios de Jacobi, Laguerre y Hermite constituyen lo que hoy dı́a se conocen como
polinomios ortogonales clásicos. Curiosamente en los ejemplos anteriores descubrimos que al
parecer todos ellos tienen ciertas caracterı́sticas comunes dentro de las que destaca la ecuación
diferencial de segundo orden. Es por ello que para culminar este apartado debemos mencionar
los teoremas de caracterización relacionados con las familias clásicas.
2.2.
Las principales caracterizaciones de los polinomios clásicos.
La primera caracterización que consideraremos fue obtenida por S. Bochner quien probó que
los únicos polinomios ortogonales que satisfacı́an una ecuación diferencial del tipo:
d
d2
Pn(x) + τ (x) Pn(x) + λn Pn(x) = 0 ,
(2.4)
2
dx
dx
donde σ y τ son polinomios de grado a lo sumo 2 y exactamente 1, respectivamente, y λ n es
una constante, eran los polinomios clásicos, o sea, los polinomios de Jacobi (σ(x) = (1 − x 2)),
Laguerre (σ(x) = x) y Hermite (σ(x) = 1) —estas tres familias de polinomios son ortogonales
con respecto a una función peso definida en R (ver Tabla 1)— y, aparentemente, una nueva
familia cuando σ(x) = x2. Estos últimos, denominados polinomios de Bessel, a diferencia de
las tres familias anteriores no corresponden a un caso definido positivo, es decir la medida de
ortogonalidad no es positiva. Aunque estos polinomios habı́an sido considerados por muchos
matemáticos (e.g. Burchnall y Chaundy en 1931), fueron H. L. Krall y O. Frink quienes los
presentaron formalmente en 1949 en su artı́culo A new class of orthogonal polynomials (Trans.
Amer. Math. Soc. 65) [12] y les dieron el nombre por su relación con las funciones de Bessel.
En ese magnı́fico trabajo estudiaron un sinnúmero de propiedades y probaron la ortogonalidad
respecto a una función peso en la circunferencia unidad T. Sin embargo no encontraron ninguna
función “peso”(necesariamente signada) sobre la recta real. El problema fue finalmente resuelto
por A. Durán en 1990 en donde se desarrolla un método general para encontrar explı́citamente
funciones muy regulares con momentos dados; como aplicación encontró las primeras medidas
signadas sobre R y (0, +∞) respecto a las cuales los polinomios de Bessel eran ortogonales.
σ(x)
Cuadro 1: Los polinomios ortogonales clásicos.
SPO
función Pn σ(x)
función peso
Intervalo de
ortogonalidad
Laguerre
σ(x) = x
xα e−x
[0, ∞)
Hermite
σ(x) = 1
−x2
Jacobi
σ(x) = 1 − x2
Bessel
σ(x) = x2
e
2
(1 − x)α (1 + x)β
P∞
(−2)m
α+1
m=0 Γ(m+α+1)z m
(−∞, ∞)
[−1, 1]
T
Otra caracterización, la más antigua, se debe a Sonin quien, en 1887, probó que los únicos
polinomios ortogonales que satisfacı́an la propiedad de que sus derivadas P n0 también eran
ortogonales eran los polinomios de Jacobi, Laguerre y Hermite. Esta propiedad fue redescubierta
W. Hahn en 1935 quien también recuperó los polinomios de Bessel no considerados por Sonin
—el caso Bessel también fue estudiado por H.L.Krall [11]—. Dos años más tarde, el mismo
Hahn probó un resultado más general que contenı́a al anterior: si la sucesión de polinomios
(k)
ortogonales (Pn)n era tal que la sucesión de sus k−ésimas derivadas (Pn )n, para cierto k ∈ N,
también era ortogonal, entonces (Pn)n era alguna de las sucesiones de polinomios ortogonales
clásicos.
9
La tercera caracterización fue propuesta por F. Tricomi [18] quien conjeturó y parcialmente
demostró (para más detalle ver [2, 6]) que sólo los polinomios ortogonales clásicos se podı́an
expresar en términos de una fórmula tipo Rodrigues:
Pn(x) =
B n dn
[ρ(x)σ n(x)] ,
ρ(x) dxn
n = 0, 1, 2, ... ,
(2.5)
donde ρ es una función no negativa en cierto intervalo y σ es un polinomio independiente de
n. La demostración rigurosa de este resultado fue dada por Cryer en 1969 [5], aunque ya E. H.
Hildebrandt en 1931 [9] tenı́a varios resultados en esa dirección. Otra caracterización consiste
en que los únicos polinomios ortogonales respecto a una función peso ρ solución de la ecuación
diferencial de Pearson
[ρ(x)σ(x)]0 = τ (x)ρ(x),
grado σ ≤ 2, grado τ = 1 ,
eran los clásicos (Jacobi, Laguerre y Hermite), que fue probada por Hildebrandt en 1931 [9].
2.3.
Teorı́a general. Stieltjes y Chebyshev
Como hemos visto en la sección anterior, los polinomios ortogonales están estrechamente
relacionados con las ecuaciones diferenciales y teorı́a de aproximación (en particular por su
relación con las fracciones continuas). Esta conexión, y en especial la segunda, conducen al
nacimiento, en la segunda mitad del siglo XIX, de la teorı́a general sobre polinomios ortogonales.
Veamos, en primer lugar, la relación entre los polinomios ortogonales y la teorı́a de las
fracciones continuas. Comenzaremos con los trabajos de Thomas Jan Stieltjes Jr. (1856–1894).
Stieltjes, en su famoso ensayo Recherches sur les fractions continues (Ann. Fac. Sci. Univ.
Toulouse, 8 (1894) 1-122, 9 (1895) 1-47) publicado póstumamente en dos partes en 1894 y
1895, desarrolló la teorı́a general de las S-fracciones definidas por
1
,
1
c1 z +
1
c2 +
c3 z + · · ·
1
c2n +
1
c2n+1 z + .
..
con la condición ck > 0 (k = 1, 2, ...). Stieltjes probó que haciendo el cambio a20 = 1/c1 , b0 =
−1/(c1 c2 ) y a2n = 1/(c2n−1 c22n c2n+1 ), bn = −1/(c2n c2n+1 ) − 1/(c2n+1 c2n+2 ), n = 1, 2, . . ., esta
fracción se transformaba en una de las fracciones continuas de Jacobi y, además, que si a k = 0,
para todo k ≥ n+1, entonces la expresión anterior se transformaba en una función racional f n(z)
(1)
de la forma fn(z) =
1 pn−1 (z)
,
a1 pn (z)
donde los polinomios denominadores pn (z) y los numeradores
(1)
pn−1 (z) son soluciones de la relación de recurrencia a tres términos
zrn(z) = an+1 rn+1 (z) + bn rn (z) + anrn−1 (z),
n≥0,
con las condiciones iniciales:
r−1(z) = 0, r0 (z) = 1 y r−1(z) = 1, r0 (z) = 0,
respectivamente. A partir de la relación de recurrencia y para el
caso de las J-fracciones, Stieltjes demostró que existı́a un funcional L, lineal y positivo, tal que, L(pn pm ) = 0 para n =
6
m,
10
Thomas Stieltjes
lo cual se puede interpretar como una versión primitiva
moso teorema de Favard demostrado antes por O. Perron
A. Wintner (1929) y M. H. Stone (1932), J. Sherman
y I. P. Natanson (1935) indistintamente que asegura lo
te:
del fa(1929),
(1935)
siguien-
Teorema: (Favard 1935) Supongamos que una sucesión de polinomios (pn)n satisface una relación de recurrencia a tres términos de la forma:
zpn (z) = an+1 pn+1 (z) + bnpn (z) + anpn−1 (z),
n≥0,
con ak+1 > 0 y bk ∈ R (k = 0, 1, 2, ...) y las condiciones iniciales p−1 (z) = 0 y p0(z) = 1.
Entonces, dichos polinomios pn son ortonormales en L2 (α), siendo α cierta medida positiva
sobre la recta real, o sea, existe una función real no decreciente α con un número infinito de
puntos de crecimiento efectivo tal que, para todo n, m = 0, 1, 2, ... se tiene que:
Z ∞
pn(x)pm (x)dα(x) = δmn ,
−∞
donde, como antes, δmn es el sı́mbolo de Kronecker.
Además demostró que tales polinomios tenı́an ceros con unas propiedades muy interesantes:
(1)
todos eran reales y simples, y los ceros de pn entrelazaban con los ceros de pn−1 y con los de
pn−1 .
El Recherches de Stieltjes no sólo constituyó un trabajo esencial en la teorı́a de fraciones continuas sino que representó el primer trabajo dedicado a la naciente teorı́a general de polinomios
ortogonales. Además de ello, en él Stieltjes introduce lo que se conoce actualmente como
R problema de momentos (dada una sucesión (µn)n, encontrar una medida µ(x) tal que µk = xndµ(x))
ası́ como una extensión de la integral de Riemann —la integral de Riemann-Stieltjes— que le
permitió un tratamiento más general de la ortogonalidad.
Además de los trabajos de Stieltjes debemos destacar también los del
matemático ruso Pafnuti Lvovich Chebyshev. Chebyshev estudió un ingente número de problemas relacionados con los polinomios ortogonales
— ya comentamos sus trabajos donde estudia los polinomios de Hermite
y Laguerre y la introducción de la primera familia “discreta”—, llegando a ellos al tratar de resolver problemas aplicados. Por ejemplo, sus
investigaciones en 1854 sobre algunos mecanismos que transformaban la
energı́a de rotación en energı́a de traslación le llevaron al problema de
mejor aproximación. Ası́, en su memoria Théorie des mécanismes connus
sous le nom de parallélogrammes (Oeuvres, Tomo I, Chelsea Pub. Co. 111- Pafnuti Chebyshev
145), Chebyshev planteó el problema de encontrar la mejor aproximación
polinómica uniforme de una función continua f , o sea, dada la función
continua f definida en cierto intervalo (a, b), encontrar dentro del conjunto P n de todos los polinomios de grado a lo sumo n el polinomio pn de grado n tal que el máximo de |f (x)−pn(x)| sea
mı́nimo en dicho intervalo. De esa manera introdujo los hoy conocidos polinomios de Chebyshev
de primera especie Tn (x) que son la solución al problema extremal de encontrar los polinomios
mónicos pn (x) = xn + · · · tales que máx |pn(x)| en el intervalo [−1, 1] sea mı́nimo, encontrando
la solución
mı́n
máx |pn (x)| =
pn ∈Pn x∈[−1,1]
1
2
,
n−1
pn (x) =
1
2
T (x) =
n−1 n
1
2n−1
cos(n arcos x).
√
Estos polinomios forman un sistema ortogonal con respecto a la función peso ρ(x) = 1/ 1 − x2
− 21 ,− 12
y coinciden con los polinomios de Jacobi Pn
11
.
Debemos destacar que Chebyshev obtuvo numerosos resultados sobre los polinomios ortogonales. En 1859, desde diferentes consideraciones, estudió otros sistemas de polinomios ortogonales como los de Hermite y Laguerre. Sin embargo, él no los introdujo a partir de la relación
de ortogonalidad
R b sino a partir del desarrollo en serie de potencias para las fracciones continuas
. Chebyshev también estudió el problema de momentos y fórmulas de cuade la forma a ρ(x)dx
z−x
dratura e introdujo la primera familia de polinomios discretos: los ya mencionados polinomios
discretos de Chebyshev.
Por estas razones, tanto a Stieltjes como a Chebyshev se les considera los padres de la teorı́a
de polinomios ortogonales que estaba por llegar a principios del siglo XX, y que se consolidó en
1939 con la aparición de la monografı́a Orthogonal Polynomials de Gabor Szegő [17]. En esta
excelente monografı́a, aparte de presentar una teorı́a general sobre polinomios ortogonales, se
incluyen gran cantidad de resultados sobre las familias clásicas y se inicia la teorı́a de Szegő de
polinomios sobre la circunferencia unidad.
12
3.
Los polinomios clásicos.
3.1.
La ecuación diferencial hipergeométrica.
Nuestro objetivo será estudiar los polinomios ortogonales clásicos definidos sobre el eje
real. Vamos a usar el punto de vista desarrollado por Nikiforov y Uvarov en su libro [15], o
sea, vamos a definir los polinomios ortogonales clásicos como las soluciones polinómicas de la
siguiente ecuación diferencial de segundo orden:
σ(x)y 00 + τ (x)y 0 + λy = 0,
(3.1)
donde σ y τ son polinomios de grados a lo más 2 y 1, respectivamente. Es decir, diremos que
una familia de polinomios ortogonales (Pn)n es clásica si el grado de cada Pn es exactamente n
y se tiene que
Z
b
Pn(x)Pm (x)ρ(x)dx = δnm d2n ,
a
o equivalentemente, que para todo n ≥ 0
Z b
xk Pn (x)ρ(x)dx = 0,
∀n, m ≥ 0,
∀k ≤ n,
a
y distinto de dero para k = n. Para probar la equivalencia entre las dos fórmulas anteriores
basta usar el hecho de que como el grado de Pn es exactamente n, (Pn)n forma una base del
espacio de los polinomios y por tanto cualquier polinomio, y en particular xk se puede expresar
como una combinación lineal de los mismos.
La razón fundamental de emplear esta caracterización se debe a que el método utilizado en
este apartado se basa en el estudio de las soluciones polinómicas de (3.1) y será fácilmente generalizable al caso de los polinomios en redes no uniformes. Este algoritmo clásico está descrito
con detalle en [14, 15].
La ecuación (3.1) usualmente se denomina ecuación diferencial hipergeométrica pues las
soluciones y de la misma cumplen con la propiedad, conocida como propiedad de hipergeometricidad, de que sus m-ésimas derivadas y (m) ≡ ym satisfacen una ecuación del mismo tipo. En
efecto, si derivamos (3.1) m veces obtenemos que ym satisface una ecuación de la forma:
00
0
σ(x)ym
+ τm (x)ym
+ µm ym = 0,
0
τm (x) = τ (x) + mσ (x),
µm = λ +
m−1
X
τi0(x)
0
= λ + mτ (x) +
m(m−1) 00
σ (x)
2
(3.2)
.
i=0
Además, es evidente que grado τm ≤ 1 y que µm es una constante.
Para probarlo usemos la inducción. Derivando una vez la ecuación (3.1) tenemos
σy100 + [τ (x) + σ 0(x)]y10 + (λ + τ 0)y1 = 0.
Llamando τ1(x) = τ (x) + σ 0 (x) y µ1 = λ + τ 0, obtenemos
σy100 + τ1(x)y10 + µ1y1 = 0,
donde obviamente σ y τ1 son polinomios de grados a lo más 2 y 1, respectivamente. Suponiendo
que las m − 1 derivadas satisfacen entonces la ecuación
00
0
σ(x)ym−1
+ τm−1 (x)ym−1
+ µm−1 ym−1 = 0,
13
(3.3)
y derivando obtenemos
00
0
σ(x)ym
+ τm (x)ym
+ µm ym = 0,
(3.4)
0
τm (x) = τm−1 (x) + σ (x),
µm = µm−1 +
0
τm−1
.
Luego
τm (x) = τm−1 (x) + σ 0(x) = τm−2 (x) + 2σ 0 (x) = · · · τ0 (x) + mσ 0(x),
τ0(x) = τ (x).
Ahora bien, como
µm − µm−1 =
0
τm−1
,
=⇒
k=1
de donde deducimos
µm − µ 0 =
Usando ahora que
0
τk−1
0
m
X
00
m
X
(µk − µk−1 ) =
0
τk−1
,
m
X
0
τk−1
,
k=1
µ0 = λ.
k=1
= τ + (k − 1)σ , obtenemos el resultado deseado.
Una propiedad muy importante de la ecuación hipergeométrica es que toda solución de (3.2)
es necesariamente de la forma ym = y (m) siendo y solución de (3.1).
Para demostrarlo usaremos nuevamente la inducción. Supongamos que y k es solución de
!
k−1
X
σ(x)yk00 + [τ (x) + kσ 0 (x)]yk0 + λ +
τi0 yk = 0
i=0
0
y supongamos que yk no se puede expresar como yk−1
, siendo yk−1 solución de la ecuación
00
0
σ(x)yk−1
+ [τ (x) + (k − 1)σ 0(x)]yk−1
+
λ+
k−2
X
i=0
!
τi0 yk−1 = 0.
Como µk−1 6= 0, tendremos que la ecuación anterior se transforma en:
yk−1 = −
1
µk−1
00
0
[σyk−1
+ τk−1 yk−1
].
Derivando la ecuación anterior una vez tendremos que
0
0
0
σ(x)(yk−1
)00 + [τ (x) + kσ 0 (x)](yk−1
)0 + µk (yk−1
) = 0.
0
Luego yk−1
= yk lo cual es una contradicción. El caso m = 1 se obtiene directamente si ponemos
k = 1 y por tanto k − 1 = 0 1 .
Esta propiedad es muy importante pues nos permite encontrar una fórmula explı́cita para
los polinomios que satisfacen la ecuación (3.1).
1
Esta propiedad fue observada por Nikiforov y Uvarov, ver e.g. [15, Capı́tulo I, §2].
14
3.2.
La ecuación en forma autoadjunta y sus consecuencias.
Comenzaremos escribiendo (3.1) y (3.2) en su forma simétrica o autoconjugada:
[σ(x)ρ(x)y 0]0 + λρ(x)y = 0,
0 0
[σ(x)ρm (x)ym
] + µm ρm (x)ym = 0,
(3.5)
donde ρ y ρm son funciones de simetrización que satisfacen las ecuaciones diferenciales de primer
orden (conocidas como ecuaciones de Pearson):
[σ(x)ρ(x)]0 = τ (x)ρ(x),
[σ(x)ρm (x)]0 = τm (x)ρm (x).
Si ρ es conocida entonces, utilizando las ecuaciones anteriores, obtenemos para ρ m la expresión:
ρm (x) = σ m (x)ρ(x).
(3.6)
Teorema 3.1 Las soluciones polinómicas de la ecuación (3.2) se expresan mediante la fórmula
de Rodrigues
Anm Bn dn−m
Pn(m) (x) =
[ρn (x)],
(3.7)
ρm (x) dxn−m
donde Bn = Pn(n) /Ann y2
Anm
= Am (λ)
λ=λn
m−1
Y
n!
[τ 0 + 21 (n + k − 1)σ 00 ].
=
(n − m)! k=0
(3.8)
Además, el autovalor µm de (3.2) es
µm = µm (λn) = −(n − m)[τ 0 + 21 (n + m − 1)σ 00 ].
(3.9)
Demostración: Para demostrar el teorema vamos a escribir la ecuación autoconjugada para las
derivadas de la siguiente forma
ρm (x)ym = −
1
[ρm+1 (x)ym+1 ]0 ,
µm
luego
ρm (x)ym =
Am dn−m
[ρn (x)yn] ,
An dxn−m
Am = (−1)m
m−1
Y
µk ,
A0 = 1.
k=0
(n)
Como estamos buscando soluciones polinómicas, y ≡ Pn, tenemos que Pn
(m)
por tanto, para las derivadas de orden m, Pn , obtenemos la expresión
Pn(m) (x) =
donde Anm = Am (λ)
Anm Bn dn−m
[ρn (x)],
ρm (x) dxn−m
(n)
λ=λn
es una constante;
y Bn = Pn(n)/Ann . Como Pn
es una constante, de (3.2) obtenemos
que µn = 0, luego, usando la expresión (3.2) µn = λn + nτ 0(x)+n(n − 1)σ 00 (x)/2 = 0 deducimos
que el valor de λn en (3.1) se expresa mediante la fórmula3
λ ≡ λn = −nτ 0 −
n(n − 1) 00
σ .
2
(3.10)
Q
λn+k
Usando la expresión (3.10) podemos obtener una expresión alternativa A nm = (−n)m m−1
k=0 (n+k) .
3
Esta misma expresión se puede obtener también sustituyendo en (3.1) el polinomio de grado n e igualando
los coeficientes de xn .
2
15
Sustituyendo (3.10) en (3.2) obtenemos el valor de µnm = µm (λn)
(3.11)
µnm = µm (λn) = −(n − m)[τ 0 + 12 (n + m − 1)σ 00 ],
Q
m−1
de donde, usando que Anm = Am (λn) = (−1)m k=0
µnk , deducimos el valor de la constante
Anm .
La fórmula (3.10) determina los autovalores λn de (3.1) y es conocida como condición de
hipergeometricidad. Esta misma expresión se puede obtener también sustituyendo en (3.1) el
polinomio de grado n e igualando los coeficientes de xn.
Cuando m = 0 la fórmula (3.7) se convierte en la conocida fórmula de Rodrigues para los
polinomios clásicos (ver caracterización de las SPOC):
Pn(x) =
B n dn n
[σ (x)ρ(x)],
ρ(x) dxn
n = 0, 1, 2, ... .
(3.12)
Es importante destacar que en la prueba hemos asumido que µnk 6= 0 para k = 0, 1, . . . , n−1.
De la expresión explı́cita (3.11) deducimos que para que ello ocurra es suficiente que τ 0 +nσ 00 /2 6=
0 para todo n = 0, 1, 2, . . .. Nótese que esta condición es equivalente a λn 6= 0 para todo n ∈ N.
Además, de ella se deduce que τn0 6= 0 para todo n ∈ N. Esta condición se conoce como condición
de regularidad del funcional de momentos asociado a los polinomios clásicos [13].
Hasta ahora sólo nos ha interesado encontrar soluciones polinómicas de la ecuación diferencial (3.1). Si también queremos que dichas soluciones sean ortogonales tenemos que exigir
algunas condiciones complementarias. Veamos cómo a partir de las ecuaciones diferenciales simetrizadas (3.5) podemos demostrar la ortogonalidad de las soluciones polinómicas respecto a
la función peso ρ.
k
= 0, para todo k ≥ 0. Entonces las soluciones
Teorema 3.2 Supongamos que x σ(x)ρ(x)
x=a,b
polinómicas Pn de la ecuación (3.1) constituyen una SPO respecto a la función peso ρ definida
por la ecuación [σ(x)ρ(x)]0 = τ (x)ρ(x), o sea, se cumple que:
Z b
Pn (x)Pm(x)ρ(x)dx = δnm d2n ,
(3.13)
a
donde δnm es el sı́mbolo de Kronecker y dn denota la norma de los polinomios Pn.
Demostración: Sean Pn y Pm dos de las soluciones polinómicas de (3.1). Partiremos de las
ecuaciones simetrizadas para Pn y Pm ,
[σ(x)ρ(x)Pn0 (x)]0 + λn ρ(x)Pn(x) = 0,
[σ(x)ρ(x)Pm0 (x)]0 + λm ρ(x)Pm (x) = 0.
Multiplicando la primera por Pm y la segunda por Pn , restando ambas e integrando en [a, b]
obtenemos:
Z b
Pn(x)Pm (x)ρ(x)dx =
(λn − λm )
a
=
Z b
a
[σ(x)ρ(x)Pm0 (x)]0Pn(x)
P (x) Pm (x)
= σ(x)ρ(x) n0
Pn(x) Pm0 (x)
−
[σ(x)ρ(x)Pn0 (x)]0Pm (x)
x=a,b
dx =
= σ(x)ρ(x)W [Pn(x), Pm (x)]
16
x=a,b
.
Pero el Wronskiano W (Pn, Pm ) es un polinomio en x; por tanto, si exigimos la condición de
que xk σ(x)ρ(x) se anule en x = a y x = b (para todo k ≥ 0) obtendremos (λn 6= λm ) que los
polinomios Pn y Pm son ortogonales respecto a la función peso ρ. Aquı́ debemos destacar que
a y b se suelen escoger de tal forma que ρ sea positiva en el intervalo [a, b]. Una elección puede
ser tomar a y b como las raı́ces de σ(x) = 0, si éstas existen [15].
(k)
De forma análoga, utilizando la ecuación (3.5) para las derivadas yk ≡ Pn , se puede demostrar que las k−ésimas derivadas de los polinomios hipergeométricos también son ortogonales,
es decir, que
Z
b
a
Pn(k) (x)Pm(k)(x)ρk (x)dx = δnm d2kn .
(3.14)
Finalmente, para calcular la norma dn de los polinomios podemos utilizar la fórmula de
Rodrigues que, sustituyéndola en (3.13) e integrando por partes, nos da:
Z b
2
n
σ n (x)ρ(x)dx.
(3.15)
dn = Bn (−1) n!an
a
3.3.
La relación de recurencia a tres términos y sus consecuencias.
Una consecuencia de la propiedad de ortogonalidad es el siguiente
Teorema 3.3 Los polinomios ortogonales satisfacen una relación de recurrencia a tres términos de la forma
xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x),
(3.16)
donde
αn =
an
,
an+1
βn =
bn
bn+1
−
,
an an+1
γn =
cn − αn cn+1
bn
an−1 d2n
−
βn =
,
an−1
an−1
an d2n−1
(3.17)
donde an, bn y cn son los coeficientes del desarrollo Pn (x) = an xn + bn xn−1 + cn xn−2 + · · ·, y dn
es la norma de los polinomios.
Generalmente se impone que P−1(x) = 0 y P0(x) = 1, con lo que la sucesión de polinomios
ortogonales queda determinada de forma única conocidas las sucesiones (α n)n , (βn )n y (γn )n.
Demostración: Utilizando que la sucesión (Pn)n es una base del espacio de los polinomios,
tenemos que el polinomio xPn(x) de grado n + 1 se puede desarrollar en serie de Fourier:
Rb
n+1
X
xPn(x)Pk(x)ρ(x)dx
xPn(x) =
cnk Pk (x), cnk = a
.
2
d
n
k=0
Pero cnk = 0 para todo 0 ≤ k < n − 1, de donde se concluye que la SPO satisface una relación
de recurrencia a tres términos de la forma
xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x),
donde los coeficientes αn , βn , y γn se expresan mediante las fórmulas:
Rb
Rb
xPn(x)Pn(x)ρ(x)dx
xP
(x)P
(x)ρ(x)dx
n
n+1
, βn = a
,
αn = a
2
dn+1
d2n
Rb
xPn(x)Pn−1 (x)ρ(x)dx
γn = a
.
d2n−1
17
(3.18)
(3.19)
Calculemos una expresión general para los coeficientes αn y βn . Para ello necesitamos conocer los coeficientes principales an y bn del polinomio Pn (Pn(x) = an xn + bn xn−1 + · · ·).
(n)
Para calcular an tenemos que, por un lado Pn (x) = n!an y por el otro, utilizando la fórmula
(n)
de Rodrigues (3.7) Pn (x) = Bn Ann , por tanto,
n−1
an =
Y
Bn Ann
= Bn
[τ 0 + 21 (n + k − 1)σ 00 ].
n!
(3.20)
k=0
Para calcular bn utilizaremos la fórmula de Rodrigues para la n − 1-ésima derivada de Pn:
(n−1)
Pn
(x) = Ann−1 Bn τn−1 (x), de donde obtenemos la igualdad:
Pn(n−1) (x) = n!an x + (n − 1)!bn = Ann−1 Bn τn−1 (x).
Luego,
bn =
nτn−1 (0)
an .
0
τn−1
(3.21)
Obsérvese que al ser τ un polinomio de grado uno, τn0 6= 0 y por tanto bn está definido para
cualquier n.
Usando las expresiones (3.17) ası́ como (3.21) deducimos:
00
τ 0 + (n − 1) σ2
Bn
an
=
αn =
00 ,
00
an+1
Bn+1 (τ 0 + (2n − 1) σ2 )(τ 0 + (2n) σ2 )
βn =
Es importante destacar que
nτn−1 (0) (n + 1)τn (0)
−
.
0
τn−1
τn0
τ (0)σ 00 − τ 0σ 0 (0)
.
τn(βn ) = n
0
τn−1
(3.22)
Vamos a dar una expresión alternativa para γn sin usar la norma de los polinomios4 . Para
ello igualamos los coeficientes de xn−2 en la ecuación diferencial (3.1). Ello nos conduce a la
expresión:
(n − 1)[τ (0) + (n − 2)σ 0(0)]bn + n(n − 1)σ(0)an
cn = −
00
(n − 2)[τ 0 + (n − 3) σ2 ] + λn
(3.23)
0
n(n − 1)[τn−2 (0)τn−1 (0) + σ(0)τn−1
]
an .
=−
0
τn−1
(λn − λn−2 )
Luego nos resta sustituir la expresión anterior en la fórmula (3.17)
γn =
bn
cn − αncn+1
−
βn .
an−1
an−1
Como un corolario de (3.16) se obtiene la conocida fórmula de Christoffel-Darboux:
Teorema 3.4 Si (Pn)n es una sucesión de polinomios ortogonales que satisface la relación de
recurrencia a tres términos (3.16). Entonces se cumple que:
n
X
Pm (x)Pm (y)
αn Pn+1 (x)Pn(y) − Pn+1 (y)Pn (x)
Kern (x, y) ≡
,
= 2
2
d
d
x
−
y
m
n
m=0
4
En muchos casos el cálculo de la norma es algo engorroso.
18
n ≥ 1.
(3.24)
Demostración: La demostración de este resultado es muy sencilla. La idea es la siguiente: escribamos la relación (3.16) para las sucesiones de polinomios (Pn)n y (Pn)n:
xPk(x) = αk Pk+1 (x) + βk Pk (x) + γk Pk−1 (x),
yPk (y) = αk Pk+1 (y) + βk Pk (y) + γk Pk−1 (y),
donde αk , βk y γk vienen dados por la fórmula (3.19). Multiplicando la primera ecuación por
Pk (y), la segunda por Pk (x) y substrayendo ambas obtenemos:
(x − y)
donde
Ak =
Pk (x)Pk(y)
= Ak − Ak−1 ,
d2k
αk
[Pk+1 (x)Pk(y) − Pk+1 (y)Pk (x)].
d2k
Sumando esta expresión desde k = 0 hasta k = n y teniendo en cuenta que el segundo miembro
es una suma telescópica obtenemos el resultado deseado.
Si hacemos tender y → x, obtenemos la fórmula confluente de Christoffel-Darboux:
n
X
αn 0
Pm2 (x)
= 2 [Pn+1
(x)Pn(x) − Pn+1 (x)Pn0 (x)]
Kern (x, x) ≡
2
d
d
m
n
m=0
n ≥ 1.
(3.25)
Proposición 3.1 Los polinomios núcleos satisfacen la siguiente propiedad reproductora
Z b
p(x)Kern (x, y)dx = p(y),
∀p(x) ∈ Pn .
(3.26)
a
Demostración: La demostración es inmediata. Como p(x) ∈ Pn , entonces p(x) =
luego
n
X
ck Pk (x),
k=0
Z bX
n
a
Z
n
n X
n
n
X
X
X
Pm (x)Pm (y)
ck Pm (y) b
ck Pk (x)
ck Pk (y) = p(y).
dx =
Pk (x)Pm(x)dx =
2
2
d
d
a
m
m
m=0
k=0
k=0 m=0
k=0
Los polinomios núcleos son útiles en distintos contextos de la teorı́a de polinomios ortogonales. Además de tener la notable propiedad reproductora (3.26) son la solución del siguiente
problema extremal.
Teorema 3.5 Sea ρ una función no negativa en (a, b). Sea Πn el espacio de los polinomios
p(x) de grado a lo sumo n tales que p(x0) = 1, x ∈ (a, b). Entonces
mı́n
p∈Πn
Z
b
p2 (x)ρ(x)dx =
a
1
,
Kern (x0, x0)
Kern(x, x0)
, donde Kern denota a los polinomios núcleos de los
Kern (x0, x0 )
correspondientes polinomios ortogonales respecto a ρ.
y se alcanza para pmin (x) =
19
Demostración: Usando que los polinomios ortogonales son una base del espacio de los polinomios
Z b
n
n
X
X
Pk (x)
2
c2k . Por otro lado, usando la
p (x)ρ(x)dx =
, de donde
ck
tenemos p(x) =
dk
a
k=0
k=0
n
X
Pk (x0)
ck
condición p(x0) = 1 tenemos p(x0) =
. Luego, usando la desigualdad de Cauchyd2k
k=0
Bunyakovsky tenemos
!
!
!
n
n
n
2
X
X
X
P
(x
)
k
0
1≤
c2k
=⇒
c2k ≤ (Kern (x0, x0))−1 ,
2
dk
m=0
k=0
k=0
y la igualdad sólo tiene lugar si ck = λPk (x0), de donde se sigue que λ = (Kern(x0, x0 ))−1 , y por
Z b
1
y se alcanza para ck = Pk (x0) (Kern (x0, x0))−1 .
p2 (x)ρ(x)dx = mı́n c2k =
tanto mı́n
p∈Πn
p∈Πn a
Kern (x0, x0 )
Las fórmulas anteriores tienen una serie de consecuencias interesantes.
Teorema 3.6 Supongamos que ρ(x) es positiva en el interior del intervalo (a, b). Entonces:
1. Todos los ceros de Pn son reales, simples y están localizados en (a, b).
2. Dos polinomios consecutivos Pn y Pn+1 no pueden tener ningún cero en común.
3. Denotemos por xn,j a los ceros del polinomio Pn, (consideraremos en adelante que xn,1 <
xn,2 < · · · < xn,n ). Entonces:
xn+1,j < xn,j < xn+1,j+1 ,
es decir, los ceros de Pn y Pn+1 entrelazan unos con otros.
Demostración: Sin pérdida de generalidad consideraremos el caso cuando los P n son mónicos,
es decir, Pn(x) = xn + · · ·. Como
Z
b
a
Pn(x) · 1ρ(x)dx = 0,
entonces indica que Pn cambia de signo dentro de (a, b). Denotemos por x1, ..., xk los ceros de
Pn de multiplicidad impar que están dentro del intervalo (a, b) y sea p el polinomio p(x) =
(x − x1) · · · (x − xk ). Es evidente que p(x)Pn(x) > 0, en (a, b). Luego
Z
b
p(x)Pn(x)ρ(x)dx > 0,
a
y por tanto, grado p = k ≥ n. Pero k es el número de ceros de Pn por lo que k ≤ n. Ello
implica que k = n y por tanto todos los ceros de Pn son simples, reales y están en el interior
de (a, b). Luego, 1 queda demostrado. Para demostrar 2 utilizaremos la relación de recurrencia
a tres términos. Supongamos que a es un cero de Pn y Pn+1 . Entonces de (3.16) se deduce que
a también es un cero de Pn−1 . Continuando este proceso obtenemos que a es un cero de P0 = 1
lo cual es una contradicción. Finalmente, demostremos la propiedad de entrelazamiento de los
ceros de Pn y Pn+1 . Nótese que de la fórmula confluente de Christoffel-Darboux (3.25) evaluada
en xn+1,j se obtiene que:
0
Pn+1
(xn+1,j )Pn(xn+1,j ) > 0.
20
Al ser xn+1,j y xn+1,j+1 dos ceros consecutivos del polinomio Pn+1 , por el teorema de Rolle
0
Pn+1
se anula al menos una vez en el interior del intervalo Ij = (xn+1,j , xn+1,j+1 ). Ahora bien,
0
0
al ser los ceros de Pn+1 simples, entonces los signos de Pn+1
(xn+1,j ) y Pn+1
(xn+1,j+1 ) son no
nulos y distintos por lo que de la desigualdad obtenida se deduce que los signos de P n(xn+1,j ) y
Pn(xn+1,j+1 ) también son no nulos y distintos entre sı́. Luego, el teorema de Bolzano nos asegura
que Pn se anula al menos una vez en el intervalo Ij = (xn+1,j , xn+1,j+1 ). Pero hay precisamente
n intervalos Ik y Pn sólo tiene n ceros, entonces existe un único cero de Pn entre dos ceros
consecutivos de Pn+1 .
3.4.
Algunas consecuencias de la fórmula de Rodrigues.
Pasemos ahora a estudiar algunas de las consecuencias de la fórmula de Rodrigues.
1. Si calculamos el polinomio de grado 1 utilizando la fórmula de Rodrigues (3.7) obtenemos:
P1(x) =
B1
[σ(x)ρ(x)]0 = B1 τ (x),
ρ(x)
y por tanto τ es un polinomio de grado exactamente uno.
2. Tomemos ahora m = 1 en la fórmula (3.7). Realizando unos cálculos directos obtenemos:
Pn0 (x) =
An1 Bn dn−1
−λn Bn dn−1
[ρ
(x)]
=
[ρ1 (x)].
n
ρ1(x) dxn−1
ρ1 (x) dxn−1 n−1
Luego
Pn0 (x) =
−λnBn
P̄n−1 (x),
B̄n−1
(3.27)
donde P̄n−1 denota al polinomio ortogonal respecto a la función peso ρ1 (x) = σ(x)ρ(x).
3. Si escribimos la fórmula (3.7) para el polinomio de grado n+1, utilizando que [σ(x)ρ n(x)]0
= τn (x)ρn(x) concluimos
Pn+1 (x) =
Bn+1 dn+1 n+1
Bn+1 dn
[σ
(x)ρ(x)]
=
[τn (x)ρn(x)] =
ρ(x) dxn+1
ρ(x) dxn
n−1
ρn (x)
dnρn(x)
Bn+1
0 d
.
+ nτn
τn (x)
=
ρ(x)
dxn
dxn−1
−λn Bn dn−1 ρn(x)
Utilizando ahora que
=
, obtenemos la fórmula de diferenciaσ(x)ρ(x) dxn−1
ción:
Bn
λn
0
Pn+1 (x) .
(3.28)
τn (x)Pn(x) −
σ(x)Pn(x) =
nτn0
Bn+1
Pn0 (x)
4. Si en la fórmula anterior (3.28) desarrollamos τn y utilizamos la relación de recurrencia (3.16) para descomponer los sumandos de la forma xPn obtenemos la relación de
estructura
σ(x)Pn0 (x) = α̃n Pn+1 (x) + β̃n Pn (x) + γ̃n Pn−1 (x), n ≥ 0,
(3.29)
donde
λn
Bn
0
α̃n =
αn τ n −
,
nτn0
Bn+1
β̃n =
λn
[βn τn0 + τn (0)] ,
nτn0
21
γ̃n =
λ n γn
,
n
(3.30)
o, equivalentemente, usando las expresiones explı́citas para los coeficientes de la relación
de recurrencia obtenemos
α̃n = n
σ 00
αn ,
2
P0
β̃n =
λn
[τ (0)σ 00
0
0
τnτn−1
− τ 0σ 0 (0)] =
λn
τn(βn ),
nτn0
γ̃n =
λ n γn
.
n
(3.31)
(x)
5. Sea Qn (x) ≡ n+1
. Entonces los polinomios ortogonales mónicos Pn(x) = xn + · · ·,
n+1
soluciones de la ecuación (3.1), satisfacen la siguiente relación de estructura:
Pn(x) = Qn + δn Qn−1 + nQn−2 .
(3.32)
En efecto, como (Pn)n es una familia ortogonal tenemos
n
X
cnm 0
P
(x),
cnm Qm (x) =
Pn (x) =
m + 1 m−1
m=0
m=0
n
X
donde
cnm
1
=
(m + 1)(d0m )2
Z
b
a
0
Pn (x)Pm+1
(x) σ(x)ρ(x) dx = 0,
| {z }
∀m ≤ n − 3,
ρ1 (x)
0
pues grado σ ≤ 2. Aquı́ d0m denota la norma del polinomio Pm−1
.
Para encontrar los valores de δn y n calculamos las integrales:
Z b
Z b
Pn(x)Qn−2 (x)σ(x)ρ(x)dx
Pn (x)Qn−1(x)σ(x)ρ(x)dx
a
a
,
n =
.
δn =
Z b
Z b
Qn−1 (x)σ(x)ρ(x)dx
Qn−2 (x)σ(x)ρ(x)dx
a
a
Comencemos por el denominador de la primera:
Z b
Z b
Z
γ̃n d2n−1
1
γ̃n b 0
2
0
0
Qn−1 (x)σ(x)ρ(x)dx = 2
P [σ(x)Pn(x)]ρ(x)dx = 2
P Pn−1 (x)ρ(x)dx =
,
n a n
n a n
n
a
donde hemos usado la fórmula de estructura (3.29) ası́ como que los polinomios son mónicos.
Análogamente, para el numerador obtenemos
Z
b
Pn(x)[Pn0 (x)σ(x)]ρ(x)dx =
a
Finalmente, para la integral
Z
β̃n d2n
.
n
b
Pn(x)Qn−2 (x)σ(x)ρ(x)dx obtenemos
a
1
α̃ d2 .
n−1 n−1 n
Combi-
nando todas estas expresiones junto a las expresiones (3.30) tenemos:
δn =
nβ̃n
,
λn
n =
22
(n − 1)α̃n−1 γn
.
λn−1
(3.33)
3.5.
Representación integral y función generatriz.
Supongamos que ρn(z) = ρ(z)σ n(z) es una función analı́tica en el interior y la frontera
del recinto limitado por cierta curva cerrada C del plano complejo que rodea al punto z = x.
Entonces, utilizando la fórmula integral de Cauchy obtenemos:
Z
ρn (z)
1
dz,
(3.34)
ρn (x) =
2πi C z − x
de donde se deduce la representación integral
Z
Z
Bn
n!Bn
ρn (z)
dn
ρn (z)
Pn(x) =
dz =
dz.
n
2πi ρ(x) d z C z − x
2πi ρ(x) C (z − x)n+1
(3.35)
Utilizando la representación anterior, Nikiforov y Uvarov desarrollaron un método unificado
para tratar los polinomios clásicos y diversas funciones especiales. Más detalles se pueden encontrar en [15].
Como aplicación de la fórmula integral encontremos las funciones generatrices de los polinomios clásicos. El objetivo es, dada una sucesión númerica (An)n y una sucesión de polinomios
(Pn)n encontrar una función Φ(x, t) tal que,
Φ(x, t) =
∞
X
An Pn (x)tn.
(3.36)
n=0
Obviamente la serie anterior puede no converger prefijado un valor cualquiera del parámetro
t, por ello asumiremos que t es lo suficientemente pequeño para que la serie converja en una
región de las x lo suficientemente amplia.
Usando (3.35) tenemos
1
Φ(x, t) =
2πi ρ(x)
Z
C
n
∞
ρ(z) X
σ(z)t
(Bnn!An )
dz.
z − x n=0
z−x
Escojamos Bn de forma que Bn n!An = 1 para todo n. En esas condiciones, usando que para
|σ(z)t| < |z − x| la serie
n
∞ X
σ(z)t
1
,
=
σ(z)t
z−x
n=0
1−
z−x
tenemos
Z
1
ρ(z)
Φ(x, t) =
dz.
2πi ρ(x) C z − x − σ(z)t
Ahora bien, σ es un polinomio de grado a lo sumo 2, luego el integrando tiene, en general, dos
ceros. Para t → 0 un cero es obviamente z = x, luego el otro deberá tender a infinito asi que
escogiendo t suficientemente pequeño y el contorno lo suficiente cercano a x tendremos usando
el teorema de los residuos:
1
ρ(ξ)
Φ(x, t) =
,
ρ(x) 1 − σ 0 (ξ)t
donde ξ es e único cero cercano a z de la ecuación z − x − σ(z)t.
23
3.6.
Los teoremas de caracterización
En este apartado vamos a profundizar en uno de los aspectos importantes de la teorı́a
clásica de polinomios ortogonales: ortogonales: Los teoremas de caracterización. Comenzaremos
dando la definición de polinomios ortogonales clásicos:
Definición 3.1 Sea la sucesión de polinomios ortogonales (Pn)n. Se dice que (Pn)n es una
sucesión de polinomios ortogonales clásica si la sucesión de sus derivadas (Pn0 )n es ortogonal.
Esta definición se debe a Sonin que fue además el primero en en probar en 1887 que las únicas
familias que satisfacı́an dicha dicha propiedad eran los polinomios de Jacobi, Laguerre y Hermite
(y más adelante, ya en el siglo XX, los polinomios de Bessel) aunque redescubierta por Hahn
en 1935. Nótese que la definición es aparentemente ambigua pues no se dice nada de la medida
de ortogonalidad de los polinomios ni de sus derivadas, no obstante en ella está contenida toda
la informacón necesaria para encontrar a dichas familias. En este apartado sólo consideraremos
el caso cuando la medida es positiva y está soportada en el eje real, es decir excluiremos el caso
Bessel. Además por sencillez vamos a dar una definición equivalente (como probaremos más
adelante).
Definición 3.2 Sea σ y τ dos polinomios de grado a lo sumo 2 y exactamente 1, respectivamente, con ceros reales y distintos y sea ρ una función tal que
Z b
0
k
[σ(x)ρ(x)] = τ (x)ρ(x),
x ρ(x)dx < +∞,
(3.37)
a
donde (a, b) es cierto intervalo de la recta real donde ρ > 0. Diremos que una familia de
polinomios ortogonales (Pn)n es clásica si es ortogonal respecto a la función ρ solución de la
ecuación (3.37).
Nuestra nueva definición es ahora más concreta pues nos está diciendo cual es la medida de
ortogonalidad. Ante todo nótemos que hemos impuesto que τ (x) = Ax + B sea de grado uno
(A 6= 0), luego tenemos sólo tres grados de libertad:
1. σ(x) = (x − a)(b − x), x ∈ [a, b] que haciendo el cambio de variables x =
podemos escribir en el intervalo [−1, 1], σ(x) = 1 − t2.
b−a
t
2
+
a+b
2
2. σ(x) = (x − a), x ∈ [a, ∞) que haciendo el cambio lineal t = − x−a
podemos escribir en
A
el intervalo [0, ∞), σ(x) = x y τ (x) = −x + B.
3. σ(x) = 1, x ∈ R.
Caso 1. En este caso tenemos
Z
τ
dx,
log(σρ) =
σ
τ (x) = Ax + B,
σ(x) = 1 − x2.
Ahora bien,
Z
Z
τ
Ax + B
A+B
A−B
dx =
dx = −
log(1 − x) −
log(1 + x) + C,
σ
(1 − x)(1 + x)
2
2
por tanto
(1 − x2)ρ(x) = (1 − x)−
A+B
2
(1 + x)−
A−B
2
=⇒
24
ρ(x) = (1 − x)−
A+B
−1
2
(1 + x)−
A−B
−1
2
.
Sea α = − A+B
− 1 y β = − A−B
− 1, luego A = −(α + β + 2), B = β − α, por tanto para
2
2
nuestra primera familia tendremos
σ(x) = 1 − x2,
τ (x) = −(α + β + 2)x + (β − α),
ρ(x) = (1 − x)α (1 + x)β ,
α, β > −1,
(3.38)
I = [−1, 1].
La restrición α, β > − 12 se debe a la imposición de que los momentos de la fución peso ρ son
R1
finitos, es decir que para todo k ≥ 0 µk = −1 xk (1 − x)α(1 + x)β dx < +∞. Nótese además que
σ(x)ρ(x) = 0 para x = a y x = b.
Caso 2. En este caso tenemos5
Z
Z
τ
−x + B
dx =
dx = −x+B log(x)+C,
σ
x
=⇒
xρ(x) = e−x xB
=⇒
ρ(x) = e−x xB−1 .
Sea α = B − 1, luego
σ(x) = x,
τ (x) = −x + α + 1,
ρ(x) = xα e−x ,
α > −1,
I = [0, ∞).
(3.39)
La restrición α > −1 se debe a la imposición
R ∞ k αde−xque los momentos de la fución peso ρ son finitos,
es decir que para todo k ≥ 0 µk = 0 x x e dx < +∞. Nótese además que σ(0)ρ(0) = 0 y
lı́m xk σ(x)ρ(x) = 0.
x→∞
Caso 3. Este caso es el más sencillo y se puede reducir6 al caso σ(x) = 1, τ (x) = −2x
Z
Z
τ
2
dx = −2xdx = −x2 + C, =⇒ ρ(x) = e−x .
σ
Luego
σ(x) = 1,
2
ρ(x) = e−x ,
τ (x) = −2x,
I = R.
(3.40)
Nótese además que σ(0)ρ(0) = 0 lı́m xk σ(x)ρ(x) = 0.
x→±∞
Antes de pasar a considerar las distintas consecuencias de la definición anterior vamos a
probar que incluso sin resolver la ecuación de Pearson (3.37) se tiene que su solución es tal que
lı́m xk σ(x)ρ(x) = lı́m xk σ(x)ρ(x) = 0.
x→a
x→b
(3.41)
Para el caso 1 es evidente al ser σ(1) = σ(−1) = 0. El segundo caso es evidente en x = 0
pero no para x → ∞. En este caso hacemos
Z t
t Z t
k
0
k
[x σ(x)ρ(x)] dx = x σ(x)ρ(x) =
[kxk−1 σ(x)ρ(x) + xk τ (x)ρ(x)]dx,
0
0
0
donde hemos derivado el integrando y usado la ecuación de Pearson. Como sabemos que σ(0) =
0 y que los momentos están acotados, tenemos que existe el lı́mite de la última integral y por
tanto el lı́mite lı́mx→b xk σ(x)ρ(x) = Ak , |Ak | < +∞. Ahora bien
Ak+1 = lı́m xk+1 σ(x)ρ(x) = lı́m xAk ,
x→b
x→b
5
Nótese que en el caso general τ (x) = Ax + B obtendrı́amos ρ(x) = eAx xB−1 de donde la restricción de que
los momentos sean finitos implica necesariamente A < 0. Lo mismo ocurre en el caso 3 cuando σ = 1.
6
Nuevamente A < 0 viene impuesto por ser los momentos finitos y obviamente B = 0 siempre se puede hacer
considerando el correspondiente cambio de variables.
25
de donde deducimos que Ak = 0.
El caso 3, σ(x) = 1 se resuelve análogamente.
Los polinomios ortogonales definidos mediante (3.38), (3.39) y (3.40) se denominan polinomios de Jacobi, Laguerre y Hermite, respectivamente.
Proposición 3.2 Si (Pn)n es una familia clásica según la definción 3.2 entonces la sucesión
(Pn0 )n es una familia de polinomios ortogonales respecto a σ(x)ρ(x).
Demostración: Como la familia (Pn)n es ortogonal tenemos para todo k < n
0=
Z
b
Pn(x)x
k−1
τ (x)ρ(x)dx =
a
Z
b
Pn (x)xk−1[σ(x)ρ(x)]0dx
a
b Z b
k−1
[Pn (x)xk−1]0 σ(x)ρ(x)dx,
= Pn(x)x ρ(x)σ(x) −
a
a
donde hemos usado grado τ = 1, la ecuación (3.37) e integrado por partes. Ası́, para todo k < n
0=
Z
b
a
Pn0 (x)xk−1[σ(x)ρ(x)]dx
+ (k − 1)
Z
b
Pn (x)[xk−2σ(x)]ρ(x)dx,
a
donde hemos usado la condición de contorno (3.41). Usando nuevamente la ortogonalidad de
(Pn)n tenemos que la última integral se anula y por tanto tenemos que para todo k < n
Z
b
a
Pn0 (x)xk−1[σ(x)ρ(x)]dx = 0,
luego (Pn0 )n es una sucesión de polinomios ortogonales respecto a ρ1 (x) = σ(x)ρ(x).
Corolario 3.1 Si (Pn)n es clásica entonces (Pn0 )n también es clásica.
Demostración: En efecto, por la proposición anterior (Pn0 )n es ortogonal respecto a ρ1 (x) =
σ(x)ρ(x). Además
[σ(x)ρ1(x)]0 = σ 0 (x)ρ1(x) + σ(x)[σ(x)ρ(x)]0 = [τ (x) + σ 0(x)]ρ1(x) = τ1(x)ρ1(x),
con grado τ1 = 1.
(k)
Corolario 3.2 Si (Pn)n es clásica entonces (Pn )n también es clásica y además es ortogonal
respecto a la función ρk (x) = σ k (x)ρ(x) que es solución de la ecuación de Pearson
[σ(x)ρk (x)]0 = τk (x)ρk (x),
τk (x) = τ (x) + kσ 0 (x).
La demostración de este resultado es inmediata del corolario anterior usando inducción.
Proposición 3.3 Si (Pn)n es una familia clásica entonces (Pn)n es solución de la ecuación
diferencial lineal de segundo orden
σ 00
00
0
0
.
(3.42)
σ(x)Pn (x) + τ (x)Pn(x) + λnPn(x) = 0,
λn = −n τ + (n − 1)
2
26
Demostración: Como (Pn)n es clásica entonces sus derivadas son también clásicas y además
para todo k < n usando (3.41)
Z b
Z b
0
k 0
xm [Pn0 (x)σ(x)ρ(x)]0dx
Pn(x)(x ) [σ(x)ρ(x)]dx = −
0=
a
Za b
xm [σ(x)Pn00 (x) + τ (x)Pn0 (x)]ρ(x)dx.
=
a
Luego σ(x)Pn00 (x) + τ (x)Pn0 (x) = −λn Pn, es decir σ(x)Pn00 (x) + τ (x)Pn0 (x) es, salvo constante
multiplicativa, el polinomio Pn(x). Finalmente, para encontrar λn igualamos las potencias xn
en (3.42).
(k)
Corolario 3.3 Si (Pn)n es una familia clásica entonces (Pn )n es solución de la ecuación
diferencial lineal de segundo orden
σ(x)[Pn(k)(x)]00 + τk (x)[Pn(k)(x)]0 + µnk Pn(k) (x) = 0,
µnk = λn + kτ 0 + 12 k(k − 1)σ 00 ,
τk (x) = τ (x) + kσ 0 (x).
(3.43)
La demostración nuevamente se basa en la inducción y las proposiciones 3.2 y 3.3.
Una consecuencia inmediata de la ecuación diferencial (3.43) es la formula de Rodrigues
(3.12)
B n dn n
Pn(x) =
[σ (x)ρ(x)], n = 0, 1, 2, . . . ,
(3.44)
ρ(x) dxn
donde ρ(x) es solución de la ecuación (3.37).
Una consecuencia inmediata de la fórmula de Rodrigues es la ecuación de Pearson (ver
apartado 3.4. tal y como vimos allı́,
P1(x) =
B1
[σ(x)ρ(x)]0,
ρ(x)
=⇒ [σ(x)ρ(x)]0 = ρ(x) B1P1(x),
| {z }
τ (x)
y por tanto τ es un polinomio de grado exactamente uno. Luego, las soluciones de la ecuación
diferencial (3.42) que se expresan mediante la forma (3.44) son ortogonales respecto a una
función ρ(x) es solución de la ecuación (3.37). Hemos probado la siguiente proposición
Proposición 3.4 Si una familia de polinomios ortogonales (Pn)n se expresa mediante la fórmula de Rodrigues (3.44), entonces (Pn)n es clásica.
El conjunto de todas las proposiciones y corolarios de este apartado se puede resumir en el
siguiente Teorema de caracterización.
Teorema 3.7 Los siguientes enunciados son equivalentes:
1. (Pn)n es una familia clásica según la definición 3.2
2. (Pn)n es clásica y la sucesión de sus derivadas (Pn0 )n también es clásica
(k)
3. (Pn)n es ortogonal y la sucesión de sus k−ésimas derivadas (Pn )n también es clásica
4. (Pn)n es solución de la ecuación diferencial de tipo hipergeométrico σ(x)Pn00(x)+τ (x)Pn0 (x)+
λnPn (x) = 0
5. (Pn)n se expresa mediante la fórmula de Rodrigues Pn (x) =
27
B n dn n
[σ (x)ρ(x)].
ρ(x) dxn
3.7.
Los Polinomios de Hermite, Laguerre y Jacobi.
3.7.1.
Parámetros Principales.
Comenzaremos escribiendo los principales parámetros de las sucesiones de polinomios
ortogonales mónicos clásicos (SPOMC). Para más detalles ver [6, 15]. Los polinomios ortogonales en la recta real, que son solución de una ecuación del tipo (3.1), se pueden clasificar en
tres grandes familias en función del grado del polinomio σ (τ siempre es un polinomio de grado
1) [15]. Cuando σ es un polinomio de grado cero los polinomios correspondientes se denominan Polinomios de Hermite Hn (x), cuando σ es de grado 1, Polinomios de Laguerre Lαn (x) y
cuando σ es de grado 2, Polinomios de Jacobi Pnα,β (x), respectivamente. En las tablas 2 y 3
están representados los principales parámetros de dichas familias, en las cuales (a) n denota al
sı́mbolo de Pochhammer
(a)0 = 1, (a)k = a(a + 1)(a + 2) · · · (a + k − 1), k = 1, 2, 3, ... .
(3.45)
Para los polinomios σ se han escogido las llamadas formas canónicas. El caso de los polinomios
de Bessel [12, 8] no lo vamos a considerar por no ser éstos un caso definido positivo.
Cuadro 2: Clasificación de las SPO Clásicas.
Pn(x)
Hn(x)
Lαn (x)
Pnα,β (x)
σ(x)
1
x
1 − x2
τ (x)
−2x
λn
2n
ρ(x)
e−x
2
−x + α + 1 −(α + β + 2)x + β − α
n
n(n + α + β + 1)
xα e−x
(1 − x)α (1 + x)β
α > −1
ρn (x)
3.7.2.
e−x
2
α, β > −1
xn+α e−x
(1 − x)n+α (1 + x)n+β
Representación hipergeométrica.
De la fórmula de Rodrigues (3.7) se puede obtener la representación de los polinomios
de Hermite, Laguerre y Jacobi en términos de la función hipergeométrica de Gauss 2 F1 [15]
definida en el caso más general de forma:
∞
X
(a1)k (a2)k · · · (ap)k xk
a1, a2 , ..., ap x
=
F
.
(3.46)
p q
b1 , b2 , ..., bq (b1)k (b2)k · · · (bq )k k!
k=0
De esta manera encontramos que:

2
−m

m
x , n = 2m

 (−1) ( 21 )m 1 F1
1


2
Hn(x) =


−m 2

m 3

 (−1) ( 2 )m x 1 F1
3
x , n = 2m + 1
2
28
,
(3.47)
(−1)n Γ(n + α + 1)
−n =
x ,
1 F1
α+1 Γ(α + 1)
2n (α + 1)n
−n, n + α + β + 1 1 − x
.
2 F1
2
α+1
(n + α + β + 1)n
Lαn (x)
Pnα,β (x) =
3.7.3.
(3.48)
(3.49)
Funciones generatrices.
∞
X
(−1)n2n
n!
n=0
n
Hn(x)t = e
∞
X
(−1)n
,
n=0
∞
X
(−1)n (α + β + 1)n
n!
n=0
t2 −2tx
Pnα,β (x)tn =
p
con R = 1 + 4t(t + x).
n!
tx
Lαn (x)tn
e− 1−t
=
,
(1 − t)α+1
2α+β
,
R(1 − 2t + R)α (1 + 2t + R)β
Cuadro 3: Parámetros de las SPO Mónicas (an = 1).
Pn (x)
Hn (x)
Lα
n (x)
Pnα,β (x)
Bn
(−1)n
2n
(−1)n
(−1)n
(n + α + β + 1)n
bn
0
−n(n + α)
n(α − β)
2n + α + β
d2n
√
n! π
2n
Γ(n + α + 1)n!
2α+β+2n+1 n!Γ(n + α + 1)Γ(n + β + 1)
Γ(n + α + β + 1)(2n + α + β + 1)(n + α + β + 1)2n
αn
1
1
1
β2
βn
0
2n + α + 1
− α2
(2n + α + β)(2n + 2 + α + β)
γn
n
2
n(n + α)
4n(n + α)(n + β)(n + α + β)
(2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1)
α̃n
0
0
−n
β̃n
0
n
2(α − β)n(n + α + β + 1)
(2n + α + β)(2n + 2 + α + β)
γ̃n
n
n(n + α)
4n(n + α)(n + β)(n + α + β)(n + α + β + 1)
(2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1)
δn
0
n
2n(α − β)
(2n + α + β)(2n + 2 + α + β)
n
0
0
−
4n(n − 1)(n + α)(n + β)
(2n + α + β − 1)(2n + α + β)2 (2n + α + β + 1)
29
(3.50)
(3.51)
Casos particulares.
(0,0)
1. Los polinomios de Legendre Pn(x) = Pn
(x).
2. Los polinomios de Chebyshev de primera especie Tn(x):
(− 21 ,− 12 )
Tn (x) = Pn
(x) =
1
2n−1
cos[n arccos (x)].
3. Los polinomios de Chebyshev de segunda especie Un(x):
( 1 , 12 )
Un (x) = Pn 2
(x) =
1 sen[(n + 1) arccos (x)]
.
2n
sen[ arccos (x)]
4. Los polinomios de Gegenbauer Gλn (x):
(λ− 21 ,λ− 21 )
Gλn (x) = Pn
3.7.4.
(x),
λ > − 12 .
Otras caracterı́sticas.
Como consecuencia de las fórmulas anteriores podemos obtener los valores de los polinomios en los extremos del intervalo de ortogonalidad. Estos valores pueden ser obtenidos también
a partir de la fórmula de Rodrigues (3.7) aplicando la regla de Leibniz para calcular la n-ésima
derivada de un producto de funciones.

(−1)m (2m)!


, n = 2m
(−1)nΓ(n + α + 1)
22m m!
Hn (0) =
, Lαn (0) =
,

Γ(α + 1)

0,
n = 2m + 1
(3.52)
Pnα,β (1) =
2n (α + 1)n
,
(n + α + β + 1)n
Pnα,β (−1) =
(−1)n 2n (β + 1)n
.
(n + α + β + 1)n
Utilizando la fórmula (3.27) encontramos las ecuaciones (ν = 1, 2, 3, ..., n = 0, 1, 2, ...):
(Hn(x))(ν) =
n!
Hn−ν (x),
(n − ν)!
(3.53)
(Lαn (x))(ν) =
n!
Lα+ν (x),
(n − ν)! n−ν
(3.54)
(Pnα,β (x))(ν) =
n!
P α+ν,β+ν (x),
(n − ν)! n−ν
(3.55)
donde (Pn(x))(ν) denota la ν−ésima derivada de Pn(x).
Debido a que las funciones peso de los polinomios de Hermite y Gegenbauer son funciones
pares, podemos aplicar los resultados obtenidos en el apartado 2.7 que nos permiten obtener
las siguientes relaciones:
−1
H2m (x) = Lm 2 (x2),
(λ− 21 ,λ− 21 )
Gλ2m (x) = P2m
1
2
H2m+1 (x) = xLm
(x2) ,
(x) =
(λ− 1 ,λ− 21 )
Gλ2m+1 (x) = P2m+12
1 (λ− 21 ,− 12 ) 2
Pm
(2x − 1),
2m
(x) =
30
1
(λ− 21 , 12 )
(2x2 − 1).
x
P
m
m
2
(3.56)
Además, de la fórmula de Rodrigues se puede encontrar la siguiente propiedad de simetrı́a para
los polinomios de Jacobi:
Pnβ,α (−x) = (−1)nPnα,β (x).
(3.57)
Como consecuencia de la representación hipergeométrica para los polinomios de Jacobi se deducen las siguientes expresiones:
3.7.5.
α,β+1
Pn−1
(x) =
(2n + α + β) α,β
(2n + α + β)(1 − x) d Pnα,β
(x) +
Pn (x),
2n(α + n)
dx
2(α + n)
(3.58)
α+1,β
Pn−1
(x) =
(2n + α + β)(x + 1) d Pnα,β
(2n + α + β) α,β
(x) −
Pn (x).
2n(β + n)
dx
2(β + n)
(3.59)
Los polinomios núcleos.
En esta sección vamos a calcular el valor de los polinomios núcleos Kern−1 (x, y), definidos
por la expresión
n−1
X
Pm (x)Pm (y)
Kern−1 (x, y) =
,
(3.60)
d2m
m=0
evaluados en ciertos valores particulares de x e y. La demostración de estos resultados es inmediata utilizando la fórmula de Christoffel-Darboux (3.24) los valores en los extremos (3.52)
y las fórmulas de diferenciación (3.28).
• Núcleos de los polinomios de Hermite:
KerH
2m−1 (x, 0) =
1
(−1)m−1
2
√ Lm−1
(x2),
(m − 1)! π
KerH
2m−1 (0, 0) =
2 Γ(m + 21 )
,
π Γ(m)
KerH
2m (x, 0) =
1
(−1)m
2
√ Lm
(x2),
(m)! π
(3.61)
KerH
2m (0, 0) =
2 Γ(m + 32 )
.
π Γ(m + 1)
(3.62)
• Núcleos de los polinomios de Laguerre:
KerLn−1 (x, 0) =
KerLn−1 (0, 0)
(−1)n−1
(Lαn )0(x),
Γ(α + 1)n!
n−1
X
(α + 1)m
(α + 1)n
=
=
.
Γ(α + 1)m!
Γ(α + 2)(n − 1)!
m=0
(3.63)
(3.64)
• Núcleos de los polinomios de Jacobi:
α,β+1
α,β d
α−1,β
KerJ,α,β
(x) = nηnα,β Pn−1
(x),
n−1 (x, −1) = ηn dx Pn
(3.65)
α+1,β
n+1 β,α d
(x),
KerJ,α,β
ηn dx Pnα,β−1 (x) = n(−1)n+1 ηnβ,α Pn−1
n−1 (x, 1) = (−1)
(3.66)
donde por ηnα,β y ηnβ,α denotaremos las cantidades:
ηnβ,α =
(−1)n−1 Γ(2n + α + β)
,
2α+β+n n!Γ(α + n)Γ(β + 1)
31
ηnβ,α
(−1)n−1 Γ(2n + α + β)
.
2α+β+n n!Γ(α + 1)Γ(β + n)
(3.67)
α,β+1
α,β
KerJ,α,β
n−1 (−1, −1) = ηn nPn−1 (−1) =
n−1
X
Γ(β + m + 1)Γ(α + β + m + 1)(2m + α + β + 1)
=
=
2α+β+1 k!Γ(β + 1)2Γ(α + m + 1)
m=0
=
(3.68)
Γ(β + n + 1)Γ(α + β + n + 1)
,
2α+β+1 (n − 1)!Γ(β + 1)Γ(β + 2)Γ(α + n)
KerJ,α,β
n−1 (−1, 1)
n−1
X
(−1)m Γ(α + β + m + 1)(2m + α + β + 1)
=
=
2α+β+1 m!Γ(β + 1)Γ(α + 1)
m=0
(3.69)
n−1
(−1) Γ(α + β + n + 1)
.
2α+β+1 (n − 1)!Γ(β + 1)Γ(α + 1)
=
Utilizando la relación de simetrı́a (3.57) para los polinomios de Jacobi obtenemos:
J,β,α
KerJ,α,β
n−1 (1, 1) = Kern−1 (−1, −1).
Si utilizamos las relaciones (3.58)-(3.59) podemos encontrar para los núcleos otras fórmulas
equivalentes:
"
#
α,β
dPn (x)
+ n Pnα,β (x) ,
dx
(3.70)
#
dPnα,β (x)
− n Pnα,β (x) ,
(1 + x)
dx
(3.71)
α,β
KerJ,α,β
(1 − x)
n−1 (x, −1) = η̃n
KerJ,α,β
n−1 (x, 1)
= (−1)n+1 η̃nβ,α
"
donde por η̃nα,β y η̃nβ,α denotaremos las cantidades:
η̃nα,β = −
η̃nβ,α
(−1)nΓ(2n + α + β + 1)
,
2α+β+n+1 n!Γ(α + n + 1)Γ(β + 1)
(−1)nΓ(2n + α + β + 1)
= − α+β+n+1
.
2
n!Γ(α + 1)Γ(β + n + 1)
32
(3.72)
4.
4.1.
Los polinomios ortogonales clásicos de variable discreta
La ecuación en diferencias de tipo hipergeométrico
En esta sección vamos a estudiar los polinomios ortogonales clásicos de variable discreta
definidos sobre el eje real. En el apartado anterior hemos considerado las soluciones polinómicas
de la ecuación diferencial hipergeométrica:
σ̃(x)y 00 + τ̃ (x)y 0 + λy = 0,
(4.1)
donde σ̃ y τ̃ son polinomios de grados a lo más 2 y 1, respectivamente. Supongamos que queremos resolver númericamente la ecuación (4.1). La manera más sencilla consiste en discretizar
(4.1) en una red uniforme. Para ello dividimos el intervalo [a, b] donde queremos encontrar la
solución y aproximamos las derivadas primera y segunda mediante las expresiones
1 y(x + h) − y(x) y(x) − y(x − h)
0
+
,
y (x) ∼
2
h
h
1 y(x + h) − y(x) y(x) − y(x − h)
−
,
y (x) ∼
h
h
h
00
Esquemáticamente estamos usando una red equidistante como la que se muestra en la figura 1.
Si sustituimos las expresiones anteriores para las derivadas en (4.1) obtenemos una ecuación en
x
a
x
x
x
x
6
x-h
x
x
x
o
S
S
x+h
b
Figura 1: Discretización en una red uniforme
diferencias de la forma
1 y(x + h) − y(x) y(x) − y(x − h)
σ
e(x)
−
+
h
h
h
τe(x) y(x + h) − y(x) y(x) − y(x − h)
+
+ λy(x) = 0.
+
2
h
h
(4.2)
Es sencillo comprobar que (4.2) aproxima la ecuación original (4.1) en una red uniforme con
paso ∆x = h hasta un orden de O(h2 ).
Con un cambio lineal de las variables x → hx, y de las funciones y(hx) → y(x), σ̃(hx)h −2 →
σ̃(x), τ̃ (hx)h−1 → τ̃ (x), la ecuación (4.2) puede ser reescrita en términos de los operadores en
diferencias finitas hacia delante y atrás con paso ∆x = h = 1. O sea,
σ(x)∆∇y(x) + τ (x)∆y(x) + λy(x) = 0,
(4.3)
donde σ(x) = σ̃(x) − 12 τ̃ (x), τ (x) = τ̃ (x) y ∆ y ∇ son los operadores lineales definidos por:
∆f (x) = f (x + 1) − f (x), ∇f (x) = f (x) − f (x − 1).
que denominaremos operadores en diferencias finitas hacia delante y hacia atrás, respectivamente.
En adelante vamos a utilizar algunas propiedades elementales de ambos operadores que
enunciaremos en el siguiente lema cuya demostración omitiremos.
33
Lema 4.1 Los operadores en diferencias finitas hacia delante y hacia atrás operadores cumplen
las siguientes propiedades:
1. ∆f (x) = ∇f (x + 1).
2. ∆∇f (x) = ∇∆f (x).
3. ∆[f (x)g(x)] = f (x)∆g(x) + g(x + 1)∆f (x).
4. Los análogos de la fórmula de Leibniz
n X
n
∇ [f (x)g(x)] =
∇k [f (x)]∇n−k [g(x − k)],
k
k=0
n
n X
n
∆ [f (x)g(x)] =
∆k [f (x + n − k)]∆n−k [g(x)],
k
k=0
n!
n
n
=
siendo k los coeficientes binomiales definidos por
.
k
k!(n − k)!
n
5. Se cumplen las fórmulas
n
(−1)
f (x − k),
∇ [f (x)] =
k
k=0
n
y
n
∆ [f (x)] =
n
X
n
X
k=0
k
n
f (x + n − k),
(−1)
k
k
6. Las fórmulas de suma por partes, donde xi+1 = xi + 1:
b−1
X
xi =a
b−1
X
xi =a
b−1
b X
g(xi + 1)∆f (xi) ,
f (xi)∆g(xi) = f (xi)g(xi) −
a
xi =a
b−1
b−1 X
g(xi − 1)∇f (xi).
−
f (xi)∇g(xi) = f (xi)g(xi)
a−1
xi =a
7. Si Pn es un polinomio de grado n entonces ∆Pn(x) y ∇Pn (x) son polinomios de grado
(n)
dn
= const.
n − 1 y por tanto ∆n Pn (x) = ∇n Pn (x) = dx
n Pn (x) = Pn
A la ecuación (4.3) se le denomina ecuación en diferencias de tipo hipergeométrico y las
soluciones y de la misma cumplen con la propiedad de que sus k-ésimas diferencias finitas,
∆k y ≡ yk , satisfacen una ecuación del mismo tipo. Dicha propiedad se conoce como propiedad
de hipergeometricidad.
Para comprobar esta afirmación hacemos actuar el operador ∆, k veces consecutivas sobre
(4.3) encontramos que yk satisface una ecuación de la forma (µ0 = λ):
σ(x)∆∇yk + τk (x)∆yk + µk yk = 0,
(4.4)
τk (x) = τk−1 (x + 1) + ∆σ(x),
µk = µk−1 + ∆τk−1 (x).
De hecho, se puede comprobar que cualquier solución de (4.4) es la k-ésima diferencia ∆ k y de
una solución y de (4.3). La demostración se basa en usar exactamente la misma idea que en
34
caso anterior y la omitiremos (ver e.g. [15, Capı́tulo II, §2.1]).
A partir de (4.4) mediante un cálculo sencillo se tiene
τk (x) = τ (x + k) + σ(x + k) − σ(x),
(4.5)
µk = λ + k∆τ (x) + 21 k(k − 1)∆2 σ(x),
(4.6)
En efecto, para demostrar (4.5) basta escribir τk (x) = τk−1 (x + 1) + ∆σ(x) de la forma τk (x) +
σ(x) = τk−1 (x + 1) + σ(x + 1). Si continuamos el proceso de manera recurrente obtenemos el
resultado deseado. Nótese además que de la expresión (4.5) se deduce que τ k es un polinomio a
lo más de grado 1 en s. Para deducir (4.6) basta comprobar que ∆τk (x) = ∆τ (x) + k∆2 σ(x),
lo cual es evidente a partir de τk (x) = τk−1 (x + 1) + ∆σ(x) si aplicamos ∆ a ambos miembros
y utilizamos la propiedad de que ∆τk (x) y ∆2 σ(x) son independientes de x. Es decir:
∆τk (x) = ∆τk−1 (x) + ∆2 σ(x) = · · · = ∆τ (x) + k∆2 σ(x),
y por tanto (4.4) nos conduce a la expresión:
µm − µm−1 = ∆τ (x) + (m − 1)∆2 σ(x),
de la cual, sumando desde m = 1 hasta k, obtenemos (4.6).
En adelante usaremos la siguiente notación, muy útil, para τ , τk y σ
σ(x) =
σ 00 2
x + σ 0(0)x + σ(0),
2
τ (x) = τ 0x + τ (0),
τk (x) = τk0 x + τk (0).
(4.7)
Usando (4.5), deducimos que
τk0 = τ 0 + σ 00 k,
4.2.
τk (0) = τ (0) + τ 0k + σ 0 (0)k +
σ 00 2
k .
2
(4.8)
La ecuación autoadjunta y sus consecuencias
La propiedad de hipergeometricidad, al igual que en el caso continuo, es de gran importancia pues nos permite encontrar explı́citamente una fórmula para los polinomios que satisfacen
la ecuación en diferencias (4.3). Para ello, al igual que antes, escribimos (4.3) y (4.4) en su
forma simétrica o autoconjugada:
∆[σ(x)ρ(x)∇y] + λρ(x)y = 0,
(4.9)
∆[σ(x)ρk (x)∇yk ] + µk ρk (x)yk = 0,
donde ρ y ρk son funciones de simetrización que satisfacen las ecuaciones en diferencias de
primer orden de tipo Pearson:
∆[σ(x)ρ(x)] = τ (x)ρ(x),
∆[σ(x)ρk (x)] = τk (x)ρk (x).
(4.10)
Si ρ es conocida, utilizando las ecuaciones anteriores obtenemos para ρk la expresión:
ρk (x) = ρ(x + k)
k
Y
m=1
35
σ(x + m).
(4.11)
En efecto, la ecuación ∆[σ(x)ρk (x)] = τk (x)ρk (x) la podemos reescribir, usando (4.4), de la
forma:
σ(x + 1)ρk (x + 1)
= τk (x) + σ(x)=τk−1 (x + 1) + σ(x + 1) =
ρk (x)
=
σ(x + 2)ρk−1 (x + 2)
.
ρk−1 (x + 1)
ρk (x)
es una función periódica de perı́odo 1 que, sin pérdida de generaσ(x + 1)ρk−1 (x + 1)
lidad, podemos tomar igual a 1. Ello nos lleva a la relación ρk (x) = σ(x + 1)ρk−1 (x + 1), de
donde por inducción se sigue (4.11).
O sea,
Teorema 4.1 Las soluciones polinómicas de la ecuación (4.4) se expresan mediante la fórmula
de Rodrigues
Ank Bn n−k
∇ [ρn (x)],
(4.12)
∆k Pn(x) =
ρk (x)
donde Bn = Pn(n) /Ann y7
Ank
k−1
Y
n!
[τ 0 + 21 (n + m − 1)σ 00 ].
= Ak (λn) =
(n − k)! m=0
(4.13)
Además, el autovalor µm de (4.4) se expresa mediante la fórmula
(n + k − 1) 2
∆ σ(x) .
µnk = µk (λn) = −(n − k) ∆τ (x) +
2
(4.14)
Demostración: Para encontrar una expresión explı́cita de las soluciones de la ecuación (4.3)
vamos a escribir la ecuación autoconjugada para las diferencias finitas de la siguiente forma
ρk (x)yk (x) = −
=−
1
∆[σ(x)ρk (x)∇yk (x)] =
µk
1
1
∇[σ(x + 1)ρk (x + 1)∇yk (x + 1)]= − ∇[ρk+1 (x)yk+1 (x)],
µk
µk
donde hemos usado (4.11). De lo anterior se concluye que
Ak n−k
∇
[ρn (x)yn] ,
ρk (x)yk =
An
Ak = (−1)
k
k−1
Y
µm ,
A0 = 1.
m=0
Como estamos buscando soluciones polinómicas, y ≡ Pn, tenemos que ∆n Pn (x) es una constante. Por tanto, para las diferencias finitas de orden k, ∆k Pn (x), obtenemos la expresión
∆k Pn(x) =
Ank Bn n−k
∇ [ρn (x)],
ρk (x)
(n)
donde Ank = Ak (λ) |λ=λn y Bn = ∆n Pn /Ann . Como Pn = n!an es constante, de (4.4) se
deduce que µn = 0, luego λn + n∆τ (x) + n(n − 1)∆2 σ(x)/2 = 0, de donde obtenemos que el
autovalor λn de (4.3) es
n(n − 1) 00
λ ≡ λn = −nτ 0 −
σ .
(4.15)
2
7
Usando la expresión (4.15) podemos obtener la expresión alternativa A nm = (−n)m
36
Qm−1
λn+k
k=0 (n+k) .
Nótese que ∆τ (x) = τ 0 y ∆2 σ(x) = σ 00 . Sustituyendo la expresión anterior (4.15) en (4.6)
obtenemos
Qk−1 el valor de µnk = µk (λn) (4.14). Para obtener Anm utilizamos la fórmula Ank =
(−1)k m=0
µnm , y valores de µnk obtenidos antes.
La fórmula (4.15) determina los autovalores y es conocida como condición de hipergeometricidad de la ecuación en diferencias (4.3). Otra forma de deducir (4.15) consiste en sustituir
el polinomio Pn en (4.3) e igualar los coeficientes de la potencia xn.
Aquı́, como en el caso “continuo”, también hemos asumido que µnk 6= 0 para k = 0, 1, . . . , n−
1. De la expresión explı́cita (4.14) deducimos que para que ello ocurra es suficiente que τ 0 +
nσ 00 /2 6= 0 para todo n = 0, 1, 2, . . .. Esto también se traduce en una condición de regularidad
[7].
La fórmula (4.15) determina los autovalores y es conocida como condición de hipergeometricidad de la ecuación en diferencias (4.3). Otra forma de deducir (4.15) consiste en sustituir
el polinomio Pn en (4.3) e igualar los coeficientes de la potencia xn.
Cuando k = 0 la fórmula (4.12) se convierte en el análogo discreto de la fórmula de Rodrigues
para los polinomios de variable discreta:
n
Y
Bn n
∇ [ρ(x + n)
σ(x + m)],
Pn(x) =
ρ(x)
m=1
n = 0, 1, 2, . . . .
(4.16)
Hasta ahora, como en el caso continuo, sólo nos ha interesado encontrar soluciones polinómicas de la ecuación en diferencias (4.3). Si también queremos que dichas soluciones sean
ortogonales tenemos que exigir algunas condiciones extra. Análogamente, a partir de las ecuaciones (4.9) podemos demostrar la ortogonalidad de las soluciones polinómicas respecto a la
función peso ρ.
Teorema 4.2 Supongamos que
xk σ(x)ρ(x)|x=a,b = 0,
para todo k ≥ 0.
(4.17)
Entonces las soluciones polinómicas Pn de la ecuación (4.3) son ortogonales, dos a dos, respecto
a la función peso ρ definida por la ecuación ∆[σ(x)ρ(x)] = τ (x)ρ(x), o sea, se cumple que:
b−1
X
Pn(xi)Pm (xi)ρ(xi) = δnm d2n ,
(4.18)
xi =a
donde, como antes, δnm es el sı́mbolo de Kronecker y dn denota la norma de los polinomios Pn.
Demostración: Sean Pn y Pm dos de las soluciones polinómicas de (4.3). Escribamos las ecuaciones simetrizadas para Pn y Pm ,
∆[σ(x)ρ(x)∇Pn(x)] + λnρ(x)Pn(x) = 0,
∆[σ(x)ρ(x)∇Pm(x)] + λm ρ(x)Pm(x) = 0.
37
Multiplicando la primera por Pm y la segunda por Pn, restando ambas, sumando en xi ∈ [a, b]
y utilizando la fórmula de la suma por partes obtenemos:
(λn − λm )
=
b−1 X
xi =a
b−1
X
Pn(xi )Pm (xi)ρ(xi) =
xi =a
∆[σ(xi)ρ(xi)∇Pm (xi)]Pn(xi) − ∆[σ(xi )ρ(xi)∇Pn(xi)]Pm (xi) =
P (x)
Pm (x)
= σ(x)ρ(x) n
∇Pn(x) ∇Pm (x)
= σ(x)ρ(x)WD [Pn(x), Pm (x)]
x=a,b
.
x=a,b
Pero el Wronskiano discreto WD (Pn, Pm ) es un polinomio en x, por tanto, si exigimos la condición que xk σ(x)ρ(x) se anule en x = a y x = b para todo k ≥ 0, obtendremos (λn 6= λm ) que
Pn y Pm son ortogonales respecto a la función peso ρ. Aquı́ debemos destacar que a y b deben
ser tales que ρ sea positiva en el intervalo [a, b − 1]. Una elección puede ser tomar a y b de tal
manera que σ(a) = 0 y σ(b − 1) + τ (b − 1) = 0 [14, 15].
Teorema 4.3 Sea (Pn)n una familia de polinomios ortogonales en [a, b) (|a| < ∞), o sea, tales
que se cumple (4.18). Entonces, el cuadrado de la norma d2n de los polinomios Pn viene dada
por la fórmula
b−n−1
X
2
n
2
dn = (−1) Ann Bn
ρn (s).
(4.19)
s=a
Demostración: Partiremos de la definición de la norma
d2n
=
b−1
X
Pn (s)Pn(s)ρ(s).
s=a
y sustituiremos en ella la fórmula de tipo Rodrigues (4.16),
d2n
= Bn
b−1
X
n
Pn (s)∇ [ρn (s)] = Bn
s=a
b−1
X
s=a
Pn(s)∇ ∇n−1 ρn (s) .
Utilicemos ahora la fórmula de suma por partes
b−1
X
s=a
b−1
b−1 X
f (s)∇g(s) = f (s)g(s)
−
g(s − 1)∇f (s),
a−1
s=a
que nos conduce a la expresión
b−1
b−1
X
2
n−1
n−1
− Bn
dn = Pn(s)∇ [ρn (s)]
[∇Pn (s)]∇ [ρn (t)]
s=a
a−1
.
t=s−1
El primer sumando, en virtud de (4.12) es proporcional a ρ1 (s) = σ(s + 1)ρ(s + 1) y, por tanto,
utilizando la condición de contorno (4.17), se anula. Reescribamos ahora el segundo sumando
haciendo el cambio de s → s − 1. Ello nos conduce a la expresión
d2n
= −Bn
b−2
X
[∆Pn(s)]∇n−1 [ρn (s)] .
s=a−1
38
Ahora utilizamos el hecho de que
∇n−1 ρn (s) = ∇∇n−2 ρn (s),
∇x2 (s) = ∇x(s + 1) = ∆x(s),
luego
d2n = −Bn
b−2
X
s=a−1
∆[Pn (s)]∇ ∇n−2 ρn (s) .
Aplicando el proceso antes descrito de suma por partes, y utilizando la condición de contorno
(4.17), obtenemos la igualdad
d2n = (−1)k Bn
= (−1)k Bn
b−k−1
X
s=a−k
b−k−1
X
∆k [Pn (s)] ∇ ∇n−k−1 ρn (s) =
∆k [Pn (s)]∇n−k [ρn (s)].
s=a−k
Si hacemos en la expresión anterior k = n y utilizamos que ∆n [Pn (s)] = Ann Bn y ∇0 ρn (s) :=
ρn (s), obtenemos
b−n−1
X
n
2
2
ρn (s),
dn = (−1) Ann Bn
s=a−n
que inmediatamente nos conduce a (4.19) pues8 ρn (a − k) = 0 para k = 1, 2, . . . , n.
Debemos destacar que una ligera modificación de la prueba del teorema anterior vale también
para el caso a = −∞ dando en ese caso el resultado correspondiente a tomar el lı́mite a → −∞.
Como conclusión de esta sección queremos destacar que por Polinomios Ortogonales de Variable Discreta se entienden aquellos polinomios que satisfacen una relación de ortogonalidad
discreta, es decir de la forma (4.18), en vez de la integral habitual (3.13). Además son solución de una ecuación en diferencias (4.3), en vez de una diferencial (3.1). No obstante estos
polinomios están definidos para todos los valores de la variable x, y no sólo en los nodos de la
red xi . Es conocido que algunas soluciones de la ecuación discreta (4.3) satisfacen una ortogonalidad continua. Aquı́ no vamos a considerar ejemplos de dichas familias, para más detalles
recomendamos consultar [14, 15].
4.3.
La relación de recurrencia a tres términos
Una consecuencia de esta propiedad es que los polinomios satisfacen una relación de
recurrencia a tres términos.
xPn(x) = αn Pn+1 (x) + βn Pn(x) + γn Pn−1 (x),
(4.20)
donde, como antes (ver (3.17)),
αn =
an
,
an+1
βn =
bn
bn+1
−
,
an an+1
γn =
cn − αn cn+1
bn
an−1 d2n
−
βn =
.
an−1
an−1
an d2n−1
Calculemos una expresión general para los coeficientes αn y βn . Para ello necesitamos conocer los coeficientes principales an y bn del polinomio Pn (Pn(x) = an xn + bn xn−1 + · · ·).
8
Recuérdese que estamos interesados en el caso |a| < ∞.
39
Primero, notemos que ∆n [xn] = κn es constante. Por tanto,
κn+1 = ∆n+1 [xn+1 ] = ∆n [(x + 1)n+1 − xn+1 ] = (n + 1)κn.
Como κ1 = 1 obtenemos κn = n!. Luego, ∆n Pn(x) = n!an y coincide, como ya habı́amos
(n)
notado, con Pn . Además, utilizando el análogo discreto de la fórmula de Rodrigues (4.12),
∆n Pn(x) = Bn Ann y, por tanto, utilizando (4.13) obtenemos para an la expresión:
an = B n
n−1
Y
k=0
[τ 0 + 12 (n + k − 1)σ 00 ],
a0 = B 0 .
(4.21)
Para calcular la expresión de bn sustituimos en (4.3) el polinomio Pn(x) = anxn + bn xn−1 +
cn x
+ · · ·, e igualamos los coeficientes de las de las potencias9 xn−1 . Ası́, tenemos
n−1
00
n(n − 1)σ 0(0) − nτ (0) + n(n − 1) σ2
bn = −
0 ,
λn + (n − 1)τ 0 + (n − 1)(n − 2) τ2
que usando (4.8) nos conduce a la expresión
nτn−1 (0) n(n − 1)
bn =
−
an .
0
τn−1
2
(4.22)
Esta misma fórmula se puede obtener por un procedimiento análoga al del caso continuo 10.
Obsérvese que al ser τ un polinomio de grado uno, τn0 6= 0 y por tanto bn está definido para
cualquier n. Finalmente, igualando los coeficientes de xn−2 obtenemos
i
h
i
h
(n−2) 0
(n−2)(n−3) σ 00
(n−2) 0
0
+
τ
+
τ
a
+
τ
(0)
+
(n
−
2)σ
(0)
+
bn
n σ(0) + τ (0)
n
2
6
6
2
2
.
cn = −(n − 1)
λn − λn−2
Ası́, obtenemos:
00
τ 0 + (n − 1) σ2
an
Bn
αn =
=
00 ,
00
an+1
Bn+1 (τ 0 + (2n − 1) σ2 )(τ 0 + (2n) σ2 )
βn =
4.4.
nτn−1 (0) (n + 1)τn(0)
−
+ n,
0
τn−1
τn0
y γn =
cn − αn cn+1
bn
−
βn .
an−1
an−1
Algunas consecuencias de la fórmula de Rodrigues
Del análogo discreto de la fórmula de Rodrigues (4.12) se pueden obtener las mismas
propiedades que en el caso continuo. En primer lugar, si calculamos el polinomio de grado 1
utilizando la fórmula de Rodrigues (4.12), ası́ como (4.10) encontramos:
B1
B1
∇[ρ1 (x)] =
∇[σ(x + 1)ρ(x + 1)] = B1 τ (x),
P1(x) =
ρ(x)
ρ(x)
por tanto, τ es un polinomio de grado exactamente uno.
Tomemos ahora k = 1 en la fórmula (4.12). Realizando unos cálculos directos obtenemos:
An1 Bn n−1
−λn Bn n−1
∆Pn(x) =
∇ [ρn (x)] =
∇ [ρ1n−1 (x)].
ρ1 (x)
ρ1 (x)
Luego,
−λnBn
∆Pn(x) =
P̄n−1 (x),
(4.23)
B̄n−1
donde P̄n−1 denota el polinomio ortogonal respecto a la función peso ρ1(x) = σ(x + 1) ρ(x + 1).
9
Si igualamos los coeficentes de las potencias xn obtenemos nuevamente la expresión para λn .
Otra demostración de esta fórmula la encontraremos más adelante en el apartado dedicado a los q-polinomios
de los cuales son éstos un caso particular.
10
40
4.5.
Las fórmulas de estructura
Recordemos que para τn estamos utilizando el siguiente desarrollo en potencias (4.8)
τn0 = ∆τ (x) + n∆2 σ(x) = τ 0 + nσ 00 .
τn (x) = τn0 x + τn(0),
(4.24)
Si escribimos ahora (4.12) para el polinomio de grado n+1, utilizando la fórmula ∆[σ(x)ρ n(x)] =
τn (x)ρn(x) obtenemos:
Pn+1 (x) =
Bn+1 n+1
Bn+1 n
∇ [ρn+1 (x)] =
∇ [τn (x)ρn(x)] =
ρ(x)
ρ(x)
=
Bn+1 τn(x)∇n[ρn (x)] + nτn0 ∇n−1 ρn (x − 1) .
ρ(x)
Utilizando ahora que ∇Pn (x) = ∆Pn(x − 1) =
fórmula de diferenciación:
−λn Bn n−1
∇ [ρn (x − 1)], obtenemos la
σ(x)ρ(x)
λn
Bn
σ(x)∇Pn(x) =
τn(x)Pn(x) −
Pn+1 (x) .
nτn0
Bn+1
(4.25)
Si utilizamos la identidad ∆∇ = ∆ − ∇, junto a la ecuación en diferencias (4.3), la fórmula
anterior se puede escribir como
Bn
λn
0
[τn (x) − nτn ]Pn (x) −
Pn+1 (x) .
[σ(x) + τ (x)]∆Pn(x) =
nτn0
Bn+1
Aquı́, al igual que en el caso continuo, podemos utilizar la relación de recurrencia (3.16) para
despejar Pn+1 y obtener sendas expresiones que relacionan las diferencias ∆Pn y ∇Pn con los
polinomios Pn+1 , Pn y Pn−1 .
Si en la fórmula (4.25) desarrollamos τn en potencias (4.24) y utilizamos la relación de
recurrencia (3.16) para descomponer los sumandos del tipo xPn obtenemos el siguiente
Teorema 4.4 Las soluciones polinómicas de la ecuación (4.3) satisfacen las siguiente fórmulas
de estructura (n ≥ 0):
σ(x)∇Pn(x) = α̃nPn+1 (x) + β̃n Pn(x) + γ̃n Pn−1 (x),
donde
λn
Bn
0
α̃n = 0 αn τn −
,
nτn
Bn+1
β̃n =
λn
[βn τn0 + τn (0)] ,
nτn0
γ̃n =
(4.26)
λ n γn
,
n
[σ(x) + τ (x)]∆Pn(x) = α̂n Pn+1 (x) + β̂n Pn(x) + γ̂n Pn−1 (x),
(4.27)
donde α̂n = α̃n , β̂n = [β̃n − λn] y γ̂n = γ̃n .
La segunda fórmula de estructura (4.27) se obtiene a partir de (4.26) usando la identidad
∆∇ = ∆ − ∇ y la ecuación en diferencias (4.3).
Nótese que los coeficientes α̃n , β̃n y γ̃n admiten las expresiones equivalentes
α̃n = nαn
λn
0
0
τnτn−1
σ 00
,
2
λn
τn(βn ).
nτn0
Al igual que en el caso continuo, los polinomios clásicos discretos satisfacen una tercera
fórmula de estructura.
β̃n =
[σ 00 ((n − 1) nσ 00 + 2 τ 0 ) + n (−2σ 0 (0) + (2n − 1) σ 00 ) τ 0] =
41
n+1 (x)
Teorema 4.5 Sea Qn (x) ≡ ∆Pn+1
. Entonces los polinomios ortogonales mónicos Pn(x) =
n
x + · · ·, soluciones de la ecuación (3.1), satisfacen la siguiente relación de estructura:
Pn (x) = Qn + δn Qn−1 + n Qn−2 .
(4.28)
Demostración: Realizaremos una prueba distinta a la del caso continuo que se adaptará muy
fácilmente al caso de las redes no uniformes.
Partiremos de la primera relación de estructura (4.26) y le aplicamos el operador ∆
∆σ(x)∆Pn(x) + σ(x)∆∇Pn(x) = α̃n ∆Pn+1 (x) + β̃n ∆Pn (x) + γ̃n ∆Pn−1 (x).
Vamos a transformar el miembro izquierdo eliminando el segundo sumando del mismo usando
la ecuación en diferencias (4.3), lo que nos da
[∆σ(x) − τ (x)]∆Pn(x) − λn Pn(x) = α̃n∆Pn+1 (x) + β̃n ∆Pn(x) + γ̃n ∆Pn−1 (x).
(4.29)
Ahora bien, ∆σ(x) − τ (x) es un polinomio de grado uno
00
σ
00
0
0
∆σ(x) − τ (x) = (σ − τ )x +
+ σ (0) − τ (0) ,
2
ası́ que nos aparece el término x∆Pn(x). Para eliminarlo haremos uso de la relación de recurrencia a la que convenientemente aplicaremos el operador ∆, es decir tenemos
x∆Pn(x) = ∆Pn+1 (x) + (βn − 1)∆Pn(x) + γn Pn−1 (x) − Pn (x).
Sustituyendo lo anterior en nuestra fórmula inicial (4.29) obtenemos la siguiente igualdad
(λn + σ 00 − τ 0)Pn(x) = (σ 00 − τ 0 − α̃n )∆Pn+1 (x)
h
i
00
+ (σ 00 − τ 0)(βn − 1) + σ2 + σ 0 (0) − τ (0) − β̃n ∆Pn(x)
+[(σ 00 − τ 0)γn − γ̃n ]∆Pn+1 (x).
00
Pero λn + σ 00 − τ 0 = −(n + 1)(τ 0 + (n − 2) σ2 ) que es distinto de cero para todo n ∈ N, luego
podemos dividir la expresión anterior por ella lo que nos conduce directamente al resultado
00
deseado pues σ 00 − τ 0 − α̃n = −τ 0 − (n − 2) σ2 .
Nótese que de la demostración se deducen los valores de los coeficientes δn y n :
00
(σ 00 − τ 0)(βn − 1) + σ2 + σ 0 (0) − τ (0) − β̃n
n
τ (βn)
− ,
=− 0
δn = −
σ 00
σ 00
0
2
(n + 1)(τ + (n − 2) 2 )
τ + (n − 1) 2
y
00
(n − 1) σ2 γn
(σ 00 − τ 0)γn − γ̃n
n = −
=
−
00
00 ,
(n + 1)(τ 0 + (n − 2) σ2 )
τ 0 + (n − 2) σ2
donde hemos usado los valores explı́citos de α̃n , β̃n y γ̃n de los coeficientes de (4.26).
42
4.6.
Representación integral y fórmula explı́cita
Supongamos que ρn es una función analı́tica en el interior y la frontera del recinto limitado
por la curva cerrada C del plano complejo que contiene a los puntos z = x, x − 1, . . . , x − n.
Entonces, utilizando nuevamente la fórmula integral de Cauchy obtenemos:
Z
1
ρn (z)
ρn (x) =
dz.
(4.30)
2πi C z − x
Mediante inducción es sencillo demostrar que
n!
1
n
,
=
∇
z−x
(z − x)n+1
donde (x)m es, al igual que antes, el sı́mbolo de Pochhammer (3.45). Luego, de (4.30) obtenemos:
Z
n!
ρn(z)
n
∇ [ρn (x)] =
dz,
2πi C (z − x)n+1
y, por tanto, es válido el siguiente
Teorema 4.6 Las soluciones polinómicas de la ecuación (4.3) admiten la siguiente representación integral
Z
n!Bn
ρn (z)
Pn(x) =
dz,
(4.31)
ρ(x) 2πi C (z − x)n+1
donde C es una curva cerrada del plano complejo que contiene a los puntos z = x, x−1, . . . , x−n
y tal que ρn es analı́tica en y dentro de la misma.
A partir de (4.31) podemos encontrar una fórmula explı́cita para calcular polinomios P n
de cualquier orden. Para ello es suficiente calcular los residuos de la función integrando, cuyos
únicos puntos singulares son polos simples, localizados en los puntos z = x − l, l = 0, 1, · · · , n
y cuyo valor es:
(−1)l ρn (x − l)
ρn (z)
.
=
Res
(z − x)n+1
l!(n − l)!
Luego, (4.31) nos conduce a la siguiente expresión para los polinomios Pn [14, 15]:
n
n
X
X
n!(−1)m ρn (x − m)
n!(−1)n+m ρn (x − n + m)
Pn(x) = Bn
= Bn
.
m!(n − m)! ρ(x)
m!(n − m)!
ρ(x)
m=0
m=0
Utilizando la ecuación de Pearson (4.10) escrita de la forma:
σ(x) + τ (x)
ρ(x + 1)
=
,
ρ(x)
σ(x + 1)
obtenemos:
ρn (x − n + m)
=
ρ(x)
n
Y
l=1
[σ(x − n + l + m)]
m−1
Y
m−1
Y
l=0
[σ(x + l + 1)]
l=0
=
n−m−1
Y
l=0
[σ(x − l)]
m−1
Y
[σ(x + l) + τ (x + l)].
l=0
43
[σ(x + l) + τ (x + l)]
=
(4.32)
Luego, la fórmula (4.32) se puede reescribir de la forma:
n−m−1
m−1
n
Y
X
n!(−1)n+m Y
[σ(x − l)]
[σ(x + l) + τ (x + l)].
Pn(x) = Bn
m!(n − m)!
m=0
l=0
(4.33)
l=0
En las fórmulas anteriores se adopta el convenio
−1
Y
l=0
f (l) ≡ 1.
El caso más general corresponde cuando σ y σ + τ son polinomios de grado dos de la forma
[16, 15]
σ(x) = A(x − x1)(x − x2), σ(x) + τ (x) = A(x − x̄1)(x − x̄2).
(4.34)
Nótese que si el grado de σ es 2, entonces el de σ + τ es necesariamente 2 y además en este
caso ambos tienen el mismo coeficiente principal A.
Utilizando (4.33) se puede obtener una expresión para los polinomios como una serie hipergeométrica generalizada 3F2 .
Teorema 4.7 Las soluciones polinómicas de la ecuación (4.3) se pueden representar como
funciones hipergeométricas generalizadas (3.46)
Pn(x) =
An B
n (x1
− x̄1 )n (x1 − x̄2 )n 3 F2
−n, x1 + x2 − x̄1 − x̄2 + n − 1, x1 − x
x1 − x̄1 , x1 − x̄2
1 ,
(4.35)
donde x1, x2 y x̄1, x̄2 son los ceros de los polinomios σ y σ + τ , respectivamente definidos en
(4.34). Además,
λn = −An(x1 + x2 − x̄1 − x̄2 + n − 1).
(4.36)
Demostración: Ante todo sustituimos (4.34) en (4.33). Un simple cálculo nos conduce a la
expresión
−n, x− x̄1 , x− x̄2
n
n
1 .
Pn(x) = A Bn (−1) (x1 −x)n (x2 −x)n 3 F2
(4.37)
x−x1 −n+1, x−x2 −n+1 Transformemos la expresión anterior en otra más “útil”. Para ello utilizaremos la fórmula de
transformación [14, Eq. (2.7.20), pág. 52]
(c − a)n
−n, a , d − b −n, a , b 1 .
(4.38)
1 =
3 F2
3 F2
a−c−n+1 , d c, d (c)n
Aplicando (4.38) a (4.37) donde a = x − x̄1, b = x − x̄2 , c = x − x1 − n + 1 y d = x − x2 − n + 1,
obtenemos
−n, x − x̄1, x̄2 − x2 − n + 1 n
n
1 .
Pn (x) = A Bn (−1) (x1 − x̄1)n (x2 − x)n 3F2
x1 − x̄1, x − x2 − n + 1 Aplicando nuevamente (4.38) a la expresión anterior con a = x − x̄1, b = x̄2 − x2 − n + 1,
c = x − x2 − n + 1, d = x1 − x̄1, ésta se transforma en
−n, x− x̄1 , x1 +x2 − x̄1 − x̄2 +n−1 n
n
Pn (x) = A Bn (−1) (x1 − x̄1)n (x2 − x̄1 )n 3 F2
1 .
x2 − x̄1, x1 − x̄1
Finalmente, haciendo uso otra vez de (4.38) pero ahora escogiendo los parámetros de la forma
a = x1 + x2 − x̄1 − x̄2 + n − 1, b = x − x̄1 , c = x2 − x̄1, y d = x1 − x̄1, la expresión anterior se
transforma en (4.35). Para obtener λn sustituimos en (4.15) los valores
∆τ (x) = τ 0 = [σ(x) + τ (x)]0 − σ 0 (x) = A(x1 + x2 − x̄1 − x̄2 ),
44
∆2 σ(x) = σ 00 = 2A ,
que nos conducen a la expresión (4.36).
Nótese que, tanto (4.37) como (4.36) son invariantes con respecto a las permutaciones de
x1, x2 y x̄1, x̄2, respectivamente.
Como ya hemos mencionado si el grado de σ es 2, σ + τ también es de grado dos. Por tanto
debemos considerar el caso cuando σ es un polinomio de grado 1. En este caso σ + τ puede ser
un polinomio de grado 1 o bien de grado 0. Veamos como las expresiones explı́citas en ambos
casos se pueden obtener del caso general tomando lı́mites apropiados.
Caso I: grado(σ + τ ) = 1. Escojamos A = −C/x2 y tomemos el lı́mite x2 → ∞, x̄2 → ∞, de
forma que x̄2/x2 = B, entonces (4.34), (4.35) y (4.36) se transforman en
σ(s) = C(x − x1),
σ(s) + τ (s) = C B(x − x̄1), λn = C n(1 − B),
1
−n, x1 − x Pn(s) = Dn 2 F1
1−
,
x1 − x̄1 B
(4.39)
donde Dn es una constante de normalización.
Caso II: grado(σ + τ ) = 0. Escojamos A = −C/(x̄1 x̄2) y tomemos el lı́mite x1 → ∞, x̄1 → ∞,
x̄2 → ∞, de forma que x2/(x̄1x̄2) = B, entonces (4.34), (4.35) y (4.36) se transforman en
σ(s) = C B(x − x1),
σ(s) + τ (s) = −C, λn = C B n,
−n, x1 − x Pn (s) = Dn 2F0
B ,
—
(4.40)
donde Dn es una constante de normalización.
De las representaciones anteriores (4.35), (4.39) y (4.40) es fácil comprobar que P n es un
polinomio de grado exactamente n en x pues
(−n)k = 0,
(n)
donde Sk
∀k > n,
y (−x)n = (−1)
n
n
X
k=0
(n)
Sk x k ,
son los números de Stirling de segunda especie [1].
Antes de estudiar en detalle las cuatro familias “discretas” clásicas debemos hacer dos breves
comentarios.
El primero está relacionado con las funciones generatrices en el caso discreto. A este respecto debemos destacar que, en principio, la misma técnica que usamos en el capı́tulo anterior
es válida aunque su aplicación al caso general se hace bastante complicada y es más sencillo
resolver caso a caso. Por esa razón no incluiremos en este apartado ningún método para la
obtención de funciones generatrices en el caso discreto. De hecho la representación como función hipergeométrica de los polinomios clásicos permite de manera “sencilla” obtener distintas
funciones generatrices para cada uno de los casos. Debemos también aclarar que de las cuatro
familias que consideraremos sólo dos, los polinomios de Meixner y Charlier, constituyen familias infinitas para las cuales tiene sentido la expresión (3.36). En el caso Hahn y Kravchuk las
correspondientes sumas son finitas. Ası́, por ejemplo, para los polinomios de Meixner y Charlier
tenemos, respectivamente, las expresiones
x
∞
X
(µ − 1)n γ,µ
t
−x−γ
Mn (x)tn,
(4.41)
(1 − t)
=
1−
n
µ
n!µ
n=0
45
e
t
t
1−
µ
x
=
∞
X
(−µ)−n
n=0
n!
Cnµ(x)tn.
(4.42)
Para más detalle remitimos al lector a los magnı́ficos trabajos [6, 10].
El segundo comentario tiene que ver con los teoremas de caracterización. Ante todo, una
definición
Definición 4.1 Sea σ y τ dos polinomios de grado a lo sumo 2 y exactamente 1, respectivamente, con ceros reales y distintos y sea ρ una función tal que
b
k
∆[σ(x)ρ(x)] = τ (x)ρ(x),
σ(x)ρ(x)x = 0,
(4.43)
a
donde (a, b) es cierto intervalo de la recta real donde ρ > 0. Diremos que una familia de
polinomios ortogonales (Pn)n es ∆-clásica, o clásica discreta, si dicha familia es ortogonal
respecto a la función ρ solución de la ecuación (4.43) anterior.
A partir de la definición anterior es “fácil” probar el siguiente teorema de caracterización
Teorema 4.8 Los siguientes enunciados son equivalentes:
1. (Pn)n es una familia discreta clásica según la definición 4.1
2. (Pn)n es clásica y la sucesión de sus diferencias (∆Pn)n también es clásica
3. (Pn)n es ortogonal y la sucesión de sus k−ésimas diferencias (∆k Pn)n también es ortogonal
4. (Pn)n es solución de la ecuación en diferencias de tipo hipergeométrico
σ(x)∆∇Pn(x) + τ (x)∆Pn(x) + λnPn (x) = 0
5. (Pn)n se expresa mediante la fórmula de Rodrigues
"
#
n
Y
Bn n
∇ ρ(x+n) σ(x+k) .
Pn (x) =
ρ(x)
k=1
Nótese que prácticamente hemos demostrado el teorema pues hemos visto que de la ecuación
en diferencias se pueden deducir todas las demás implicaciones. Para cerrar el cı́rculo bastarı́a
probar que si se tiene la definición 4.1 entonces la sucesión de derivadas es también ortogonal y
que de ahı́ se deduce la ecuación en diferencias. Su prueba es totalmente análoga a la del caso
continuo y la omitiremos (se recomienda como ejercicio).
4.7.
Los Polinomios de Charlier, Meixner, Kravchuk y Hahn
4.7.1.
Parámetros Principales
En esta sección vamos a describir los principales parámetros de las SPO clásicas mónicas
discretas. Para el cálculo de los mismos podemos seguir el algoritmo antes expuesto. Para más
detalle veánse las excelentes monografı́as [6, 14, 15].
Los polinomios ortogonales discretos en la recta real, que son solución de una ecuación del
tipo (4.3), se pueden clasificar en cuatro grandes familias en función del grado del polinomio
σ (τ siempre es un polinomio de grado 1) [15]. Cuando σ es de grado 1 existen tres posibilidades: si grado[σ + τ ] = 1 Polinomios de Meixner Mnγ,µ (x), definidos en el intervalo [0, ∞)
y los Polinomios de Kravchuk Knp (x), definidos en un intervalo [0, N ], respectivamente, y si
46
Cuadro 4: Clasificación de las SPO discretas clásicas.
Hahn
Meixner
Kravchuk
Charlier
Pn (x)
hα,β
n (x; N )
Mnγ,µ(x)
Knp (x)
Cnµ (x)
[a, b]
[0, N ]
[0, ∞)
[0, N + 1]
[0, ∞)
σ(x)
x(N + α − x)
x
x
x
(µ − 1)x + µγ
Np − x
1−p
µ−x
τ (x) (β + 1)(N − 1) − (α + β + 2)x
(x + β + 1)(N − 1 − x)
µx + γµ
λn
n(n + α + β + 1)
(1 − µ)n
n
1−p
n
ρ(x)
Γ(N + α − x)Γ(β + x + 1)
Γ(N − x)Γ(x + 1)
µx Γ(γ + x)
Γ(γ)Γ(x + 1)
N !px (1 − p)N −x
Γ(N + 1 − x)Γ(x + 1)
e−µ µx
Γ(x + 1)
α, β ≥ −1 , n ≤ N − 1
ρn(x)
γ > 0, 0 < µ < 1
−
p
(x − N )
1−p
σ+τ
0 < p < 1, n ≤ N − 1
µ
µ>0
Γ(N + α − x)Γ(n + β + x + 1) µx+n Γ(γ + n + x)
N !px+n (1 − p)N −n−x
e−µ µx+n
Γ(N − n − x)Γ(x + 1)
Γ(γ)Γ(x + 1)
Γ(N + 1 − n − x)Γ(x + 1) Γ(x + 1)
grado[σ + τ ] = 0 los Polinomios de Charlier Cnµ(x), definidos en [0, ∞). Cuando el grado de σ
es 2, se obtienen los Polinomios de Hahn hα,β
n (x, N ) definidos en [0, N − 1]. En las tablas 4, 5 y
6 están representados los principales parámetros de dichas familias, donde, al igual que en las
tablas anteriores, (a)k es el sı́mbolo de Pochhammer.
4.7.2.
Representación hipergeométrica
De la fórmula de Rodrigues (4.12) o la fórmula (4.35) se puede obtener la representación
de los polinomios clásicos de variable discreta en términos de la función hipergeométrica generalizada p Fq [14, Sección 2.7, pág. 49]. En el caso Hahn, (4.35) nos conduce inmediatamente al
resultado deseado. Los restantes tres casos (Meixner, Kravchuk y Charlier) se pueden obtener
como casos lı́mites de (4.35) tal y como hemos visto en el apartado anterior. Obviamente también se puede utilizar directamente la fórmula (4.33). Ası́, utilizando las fórmulas (4.35) con
x1 = 0, x2 = N + α, x̄1 = −β − 1 y x̄2 = N − 1 (ver la elección de σ y σ + τ en la tabla 4)
obtenemos para los polinomios de Hahn la fórmula
(1 − N )n(β + 1)n
−x, α + β + n + 1, −n α,β
(4.44)
hn (x, N ) =
3 F2
1 .
1 − N, β + 1
(α + β + n + 1)n
A continuación usamos los valores de de σ y σ + τ para los polinomios de Meixner (ver la
tabla 4) de donde deducimos que x1 = 0, x̄1 = −γ y B = µ, por tanto (4.39) nos da
n
1
µ
−n,
−x
γ,µ
(4.45)
Mn (x) = (γ)n
2 F1
1 − µ .
γ
(µ − 1)n
En el caso de los polinomios de Kravchuk tenemos x1 = 0, x̄1 = N y B = −p(1 − p), luego
47
(4.39) nos da
Knp (x)
(−p)nN !
=
(N − n)!
2 F1
−n, −x
−N
1
.
p
(4.46)
Finalmente, para los polinomios de Charlier obtenemos (ver la tabla 4) x1 = 0, B = −1/µ,
ası́ que usando la fórmula (4.40) obtenemos
−n, −x 1
µ
n
(4.47)
Cn (x) = (−µ) 2 F0
− µ .
−
4.7.3.
Otras caracterı́sticas
Una consecuencia de las expresiones anteriores es el cálculo de los valores de los polinomios
en los extremos del intervalo de ortogonalidad. Estos valores pueden ser obtenidos también a
partir del análogo discreto de la fórmula de Rodrigues (4.12).
Mnγ,µ (0)
µn Γ(n + γ)
=
,
(µ − 1)n Γ(γ)
hα,β
n (0, N )
Knp (0)
(−p)n N !
=
,
(N − n)!
Cnµ(0) = (−µ)n ,
(−1)nΓ(β + n + 1)(N − 1)!
,
=
Γ(β + 1)(N − n − 1)!(n + α + β + 1)n
hα,β
n (N − 1, N ) =
Γ(α + n + 1)(N − 1)!
.
Γ(α + 1)(N − n − 1)!(n + α + β + 1)n
(4.48)
(4.49)
(4.50)
Como consecuencia de (4.23) se obtienen las fórmulas de diferenciación:
γ+1,µ
∆Mnγ,µ (x) = nMn−1
(x)
(4.51)
p
∆Knp(x, N ) = nKn−1
(x, N − 1),
(4.52)
µ
∆Cnµ (x) = nCn−1
(x),
(4.53)
α+1,β+1
(x, N − 1),
∆hα,β
n (x, N ) = nhn−1
(4.54)
Los polinomios de Hahn satisfacen una propiedad de simetrı́a que es consecuencia de la
representación hipergeométrica (o bien directamente de (4.16)):
n α,β
hβ,α
n (N − 1 − x, N ) = (−1) hn (x, N ).
(4.55)
Además, tiene lugar la relación:
x∇hα−1,β
(x, N ) = nhα,β
n
n (x, N ) +
n(n + β)(α + β + n)
hα,β
(x, N ).
(N − n − 1)(α + β + 2n)(α + β + 2n − 1) n−1
La demostración de este resultado es inmediata a partir de la representación hipergeométrica
(4.44) para los polinomios de Hahn.
48
Cuadro 5: Parámetros de las SPO Mónicas (an = 1).
Hahn
Bn
bn
d2n
βn
γn
α̂n
n
−
2
hα,β
n (x; N )
Chebyshev
tn (x; N ) = h0,0
n (x; N )
(−1)n
(α + β + n + 1)n
(−1)n
(n + 1)n
2(β + 1)(N − 1) + (n − 1)(α − β + 2N − 2)
α + β + 2n
−
n(N − 1)
2
n!Γ(α + n + 1)Γ(β + n + 1)Γ(α + β + N + n + 1)
n!2 (N + n)!(n + 1)−2
n
(α + β + 2n + 1)(N − n − 1)!Γ(α + β + n + 1)(α + β + n + 1)2n (2n + 1)(N − n − 1)!
(β + 1)(N − 1)(α + β) + n(2N + α − β − 2)(α + β + n + 1)
(α + β + 2n)(α + β + 2n + 2)
n(N − n)(α + β + n)(α + n)(β + n)(α + β + N + n)
(α + β + 2n − 1)(α + β + 2n)2 (α + β + 2n + 1)
N −1
2
2
2
n (N − n2 )
4(2n − 1)(2n + 1)
−n
−n
2
n(−α − β − αβ − β − 2n − 2αn − 2βn − 2n + αN − βN )
n(n + 1)
−
(α + β + n + 1)−1 (α + β + 2n)(α + β + 2n + 2)
2
2
n(α + β + n)(α + β + n + 1)(α + n)(β + n)(α + β + N + n)
n (n + 1)(N 2 − n2 )
−
−
(n − N )−1 (α + β + 2n − 1)(α + β + 2n)2 (α + β + 2n + 1)
4(2n − 1)(2n + 1)
2
β̂n
γ̂n
α̃n
β̃n
γ̃n
δn
n
−n
−n
2
n(α +
+ β + αβ + 2n + 2αn + 2βn + 2n + αN − βN )
n(n + 1)
(α + β + n + 1)−1 (α + β + 2n)(α + β + 2n + 2)
2
2
n(α + β + n)(α + β + n + 1)(α + n)(β + n)(α + β + N + n)
n (n + 1)(N 2 − n2 )
−
−
(n − N )−1 (α + β + 2n − 1)(α + β + 2n)2 (α + β + 2n + 1)
4(2n − 1)(2n + 1)
α2
n
n(α − β)(2N + α + β)
−
2(α + β + 2n)(α + β + 2n + 2) 2
n(n − 1)(N − n)(α + n)(β + n)(α + β + N + n)
(α + β + 2n − 1)(α + β + 2n)2 (α + β + 2n + 1)
49
n
2
n(n − 1)(N 2 − n2 )
−
4(2n − 1)(2n + 1)
−
Cuadro 6: Parámetros de las SPO Mónicas (continuación).
4.7.4.
Charlier
Cnµ (x)
Kravchuck
Knp (x)
Meixner
Mnγ,µ (x)
Bn
(−1)n
(−1)n (1 − p)n
bn
n
− (2µ + n − 1)
2
−n[N p + (n − 1)( 21 − p)]
d2n
n!µn
n!N !pn (1 − p)n
(N − n)!
1
(µ − 1)n
nµ
n−1µ+1
γ+
µ−1
2
µ
βn
n+µ
N p + (1 − 2p)n
γn
nµ
np(1 − p)(N − n + 1)
α̂n
0
β̂n
0
0
np
−
1−p
γ̂n
nµ
pn(N − n + 1)
α̃n
β̃n
0
n
0
n
γ̃n
nµ
pn(N − n + 1)
δn
0
n
0
n(1 − p)
0
n!(γ)n µn
(1 − µ)γ+2n
n(1 + µ) + µγ
1−µ
nµ(n − 1 + γ)
(µ − 1)2
0
nµ
nµ(n − 1 + γ)
1−µ
0
n
nµ(n − 1 + γ)
1−µ
nµ
1−µ
0
Los polinomios núcleos
En esta sección vamos a calcular el valor de los polinomios núcleos Kern−1 (x, y), definidos
por la expresión:
n−1
X
Pm (x)Pm (y)
Kern−1 (x, y) =
,
(4.56)
d2m
m=0
y evaluados en ciertos valores particulares de x e y. La demostración de estos resultados es inmediata utilizando la fórmula de Christoffel-Darboux (3.24), los valores en los extremos (4.48)(4.50) y la fórmula de estructura (4.26). Describamos un algoritmo general para calcular los
valores de los núcleos Kern−1 (x, 0) a partir de los parámetros de los polinomios discretos clásicos
(ver tablas 5 y 6)11
Notemos que para los polinomios clásicos, σ(0) = 0. Luego, de la relación:
σ(x)∇Pn(x) = α̃nPn+1 (x) + β̃n Pn(x) + γ̃n Pn−1 (x),
y la relación de recurrencia (3.16) en x = 0 obtenemos:
(β̃n − α̃nβn )Pn(0) = (α̃n γn − γ̃n )Pn−1 (0).
11
Este algoritmo fue propuesto por Laura Salto en su Tesis Doctoral.
50
Utilizando la fórmula de Christoffel-Darboux encontramos:
Kern−1 (x, 0) ≡
n−1
X
Pk (x)Pk(0)
d2k
k=0
=
1 Pn(x)Pn−1(0) − Pn−1 (x), Pn(0)
,
x
d2n−1
o la expresión equivalente:
"
#
(α̃n βn − β̃n )Pn(x) + (α̃n γn − γ̃n )Pn−1 (x)
−Pn (0)
.
Kern−1 (x, 0) = 2
dn−1 (α̃nγn − γ̃n )
x
Usando nuevamente las relaciones de estructura y recurrencia (4.26) y (3.16) obtenemos la
siguiente expresión para el polinomio núcleo Kern−1 (x, 0):
−Pn (0)
σ(x)
Kern−1 (x; 0) = 2
∇Pn (x) .
(4.57)
α̃n Pn(x) −
dn−1 (α̃nγn − γ̃n )
x
Utilizando el método descrito anteriormente encontramos las siguientes expresiones para los
polinomios núcleos Kern−1 (x, 0) de los polinomios clásicos de variable discreta.
• Núcleos de los polinomios de Meixner:
KerM
n−1 (x, 0) =
(−1)n−1 (1 − µ)n+γ−1
∇Mnγ,µ (x),
n!
KerM
n−1 (0, 0)
n−1
X
(γ)m µm (1 − µ)γ
=
.
m!
m=0
(4.58)
(4.59)
• Núcleos de los polinomios de Kravchuk:
(p − 1)1−n
∇Knp (x),
n!
n−1
X
pm N !
KerK
n−1 (x, 0) =
KerK
n−1 (0, 0) =
m=0
(1 − p)m m!(N − m)!
(4.60)
.
(4.61)
• Núcleos de los polinomios de Charlier:
KerC
n−1 (x, 0) =
(−1)n−1
∇Cnµ (x),
n!
KerC
n−1 (0, 0)
• Núcleos de los polinomios de Hahn:
n−1 m
X
µ
=
.
m!
m=0
(4.62)
(4.63)
α−1,β
KerH,α,β
(x, N ),
n−1 (x, 0) = κn (α, β)∇hn
(4.64)
KerH,α,β
n−1 (x, N
− 1) = κn(β, α)(−1)
n+1
∆hα,β−1
(x, N ),
n
donde κn (α, β) denota a:
κn (α, β) =
(−1)n−1 (N − 1)!Γ(α + β + 2n)
.
n!Γ(β + 1)Γ(α + n)Γ(α + β + n + N )
51
(4.65)
Además,
KerH,α,β
n−1 (0, 0) =
n−1
X
Γ(m + β + 1)Γ(m + α + β + 1)(2m + α + β + 1)(N − 1)!2
,
=
m!Γ(β + 1)2 (N − m − 1)!Γ(α + m + 1)Γ(α + β + N + m + 1)
m=0
(4.66)
KerH,α,β
n−1 (0, N − 1) =
n−1
X
(−1)m Γ(m + α + β + 1)(2m + α + β + 1)(N − 1)!2
,
=
m!Γ(β + 1)Γ(α + 1)(N − m − 1)!Γ(α + β + N + m + 1)
m=0
(4.67)
H,β,α
y utilizando (4.55) encontramos KerH,α,β
n−1 (N − 1, N − 1) = Kern−1 (0, 0). Si empleamos la expresión (4.57) para calcular los núcleos de los polinomios de Hahn, encontramos otra representación
de los mismos:
α,β
α,β
KerH,α,β
n−1 (x, 0) = θn (α, β)[nhn (x, N ) + (x − α − N )∇hn (x, N )],
(4.68)
α,β
n
α,β
KerH,α,β
n−1 (x, N − 1) = θn (β, α)(−1) [nhn (x, N ) + (x + 1 + β)∆hn (x, N )],
donde θn (α, β) y θn (β, α) denotan a:
(−1)n(N − 1)!Γ(α + β + 2n + 1)
,
n!Γ(α + n + 1)Γ(β + 1)Γ(α + β + N + n + 1)
θn(α, β) =
(4.69)
n
(−1) (N − 1)!Γ(α + β + 2n + 1)
,
n!Γ(α + 1)Γ(β + n + 1)Γ(α + β + N + n + 1)
θn(β, α) =
respectivamente.
Nota: Para encontrar la expresión de KerH,α,β
n−1 (x, N − 1) en (4.64) y (4.68) a partir de la expresión
H,α,β
para los Kern−1 (x, 0) debemos realizar las siguientes operaciones:
KerH,α,β
n−1 (x, N
=
n−1
X
m=0
− 1) =
n−1
X
m=0
α,β
hα,β
m (x, N )hm (N − 1, N )
=
d2m
β,α
hβ,α
m (N − 1 − x, N )hm (0, N )
= Kerβ,α
n−1 (N − x − 1, 0),
d2m
donde hemos utilizado la propiedad de simetrı́a donde hemos utilizado la propiedad de simetrı́a (4.55).
Por tanto KerH,α,β
n−1 (x, 0), realizamos el cambio x ←→ N − x − 1 y α ←→ β obtenemos la fórmula para
H,α,β
el Kern−1 (x, N − 1). Finalmente, utilizando la identidad:
α,β
∇hβ,α
n (N − x − 1, N ) = −∆hn (x, N ),
obtenemos la expresión deseada.
4.8.
Relaciones lı́mites entre los polinomios clásicos
Antes de concluir esta primera parte debemos recordar que existen diversas relaciones lı́mites
que involucran a los polinomios clásicos considerados. La demostración es inmediata a partir de
52
+
Jacobi
Hahn
hα,β
n (x, N )
Q
Q
Q
Pnα,β (x)
J
J
Q
Q
s
Kravchuk
Mnγ,µ (x)
Knp,A (x)
@
J
^
J
Laguerre
@
@ R
@
Charlier
J
J
Cnµ (x)
Lα
n (x)
J
Q
?
Meixner
@
J
Q
J
^
J
Hermite
Hn (x)
Figura 2: Relaciones lı́mites de los polinomios clásicos.
la representación hipergeométrica o la relación de recurrencia que satisfacen dichos polinomios
y se puede encontrar en diversos trabajos: [10, 14, 15]. Estas relaciones están representadas
en la figura 2 que no es más que un fragmento de la conocida Tabla de Askey [10] para los
polinomios ortogonales hipergeométricos. Algunas de ellas son, por ejemplo,
2n α,β
lı́m
hn ((N − 1)x, N ) = Pnα,β (2x − 1),
N →∞ N n
(−1)n β n α,β
2x
lı́m
1−
Pn
= Lαn (x),
β→0
2n
β
(1−µ)
N,γ−1
(x, N ) = Mnγ,µ (x),
x
lı́m hnMnα+1,1−h
= Lαn (x),
h→0
h
lı́m hn µ
N →∞
µ
γ, µ+γ
lı́m Mn
γ→∞
(x) = Cnµ (x),
53
(4.70)
(4.71)
(4.72)
(4.73)
(4.74)
54
5.
Algunas aplicaciones
5.1.
Aplicación a la Mecánica Cuántica
5.1.1.
El oscilador armónico cuántico
Uno de los modelos más utilizados en la fı́sica cuántica es el oscilador armónico. Este
corresponde a la ecuación de Schrödinger
~2 00
1
−
Ψ (x) + mω 2 x2Ψ(x) = EΨ(x).
2m
2
p
El cambio de variables ξ = x/x0, x0 = ~/mω nos conduce a la ecuación
Ψ00 (ξ) + (ε − ξ 2)Ψ(ξ) = 0,
ε=
2E
.
~ω
(5.1)
(5.2)
¿Cómo resolver esta ecuación?
Existen varias formas, pero nosotros vamos a dar una manera algorı́tmica sencilla para resolver este tipo de ecuacuaciones, o mejor, para reducirlas a la ecuación hipergeométrica que
estudiamos en el apartado anterior.
Generalmente, si buscamos en los textos de Mecánica Cuántica se nos dice que debemos
2
realizar el cambio Ψ(ξ) = e−ξ /2 y(ξ) que nos conduce a la ecuación
y 00 (ξ) − 2ξy 0 (ξ) + (ε − 1)y(ξ) = 0.
Un simple vistazo basta para reconocer la ecuación diferencial de los polinomios de Hermite,
aunque allı́ —en los textos— prefieren calcular explı́citamente la solución por el método de los
coeficientes indeterminados de Euler que ya mencionamos. Es decir, se busca la solución en
forma de serie
∞
X
bk ξ k ,
y(ξ) =
k=0
y se sustituye en la ecuación diferencial y se igualan coeficientes. Eso lleva a la relación
bk+1 =
2k + 1 − ε
bk ,
(k + 1)(k + 2)
luego, si imponemos que la serie sea finita —truncada—, es decir si ponemos ε = 2n + 1, n =
0, 1, 2, . . ., obtenemos los ya mencionados polinomios de Hermite. Finalmente, si consideramos
que ε 6= 2n + 1, es fácil descubrir que bk+2 /b2 ∼ 1/k, por tanto,
∞
X
k=0
bk ξ k ∼
∞
X
1 2k
2
ξ ∼ eξ ,
k!
k=0
que no es integrable. No obstante, este método, aunque general, es incómodo pues requiere
“adivinar” el cambio inicial y luego tratar cada ecuación por separado. Vamos a describir a
continuación como, usando el apartado anterior, podemos resolver de manera general muchos
de los problemas de la Mecánica Cuántica a partir de una ecuación más general: la ecuación
hipergeométrica generalizada:
u00 (z) +
τe(z) 0
σ
e(z)
u (z) + 2 u(z) = 0,
σ(z)
σ (z)
siendo τ (z) y τe(z) polinomios de grado a lo más uno y σ(z) y σ
e(z) polinomios de grado a lo
más dos.
55
5.1.2.
La ecuación hipergeométrica generalizada.
La ecuación hipergeométrica generalizada en una ecuación lineal de segundo orden de la
forma
σ
e(z)
τe(z) 0
u (z) + 2 u(z) = 0,
(5.3)
u00 (z) +
σ(z)
σ (z)
siendo τ (z) y τe(z) polinomios de grado a lo más uno y σ(z) y σ
e(z) polinomios de grado a lo
más dos.
Hagamos el cambio u(z) = φ(z)y(z),
0
00
φ (z) τe(z)
φ (z) φ0 (z)e
τ (z)
σ
e(z)
00
0
y (z) + 2
+
+
+
y (z) +
y(z) = 0.
φ(z)
σ(z)
φ(z)
φ(z)σ(z) σ 2(z)
El objetivo del cambio es convertir la ecuación anterior en una más sencilla —o por lo menos
menos complicada— que (5.3), ası́ que al menos debemos tener
2
τ (z)
φ0(z) τe(z)
+
=
,
φ(z)
σ(z)
σ(z)
o
φ0 (z)
τ (z) − τe(z)
π(z)
=
=
,
φ(z)
2σ(z)
σ(z)
(5.4)
siendo τ un polinomio de grado a lo más uno, y por tanto π polinomio de grado a lo más uno.
Lo anterior transforma nuestra ecuación original (5.3) en la siguiente:
y 00 (z) +
τ (z) = τe(z) + 2π(z),
τ (z) 0
σ(z)
y (z) + 2 y(z) = 0,
σ(z)
σ (z)
2
(5.5)
0
0
σ(z) = σ
e(z) + π (z) + π[e
τ (z) − σ (z)] + π (z)σ(z).
Como σ es un polinomio de grado dos a lo sumo, impongamos que sea proporcional al propio
σ, es decir que σ(z) = λσ(z). Ello es posible pues σ tiene dos coeficientes indeterminados —los
coeficientes del polinomio π— y λ es una constante a determinar, lo que nos conduce a tres
ecuaciones —al igualar los coeficientes de σ y σ— con tres incógnitas. Hecho ésto, nuestra
ecuación se transforma en la ecuación hipergeométrica del apartado anterior
σ(z)y 00 + τ (z)y 0 + λy = 0.
(5.6)
Pasemos a calcular12 π y λ. Como σ = λσ(z), entonces
o, equivalentemente
σ
e(z) + π 2 (z) + π[e
τ (z) − σ 0 (z)] + π 0 (z)σ(z) = λσ(z),
π 2 (z) + [e
τ (z) − σ(z)]π(z) + {e
σ(z) − [λ − π 0 (z)]σ(z)} = 0.
Supongamos que k = λ − π 0 (z) es conocido, entonces tenemos una ecuación de segundo orden
para π(z), luego
s
2
0
σ (z) − τe(z)
σ 0(z) − τe(z)
π(z) =
±
−σ
e(z) + kσ(z),
(5.7)
2
2
2
σ 0 (z) − τe(z)
pero π(z) ha de ser un polinomio de grado a lo sumo uno, luego el polinomio
−
2
σ
e(z) + kσ(z) ha de ser un cuadrado perfecto, es decir su discriminante debe ser cero, lo que nos
12
En el caso de soluciones polinómicas, λ se debe expresar como función de σ y τ como ya hemos visto en el
apartado anterior.
56
conduce a una ecuación para encontrar k. El k encontrado lo sustituimos en (5.7) y obtenemos
π(z), el cual nos conduce directamente a λ = π 0 (z) + k.
Obviamente el método anterior da distintas soluciones en función del k que escojamos y del
convenio de signos en (5.7).
5.1.3.
Ejemplos.
El oscilador armónico cuántico.
Como ejemplo apliquemos la técnica anterior al caso del oscilador armónico cuántico.
Partimos de la ecuación (5.2),
Ψ00 (ξ) + (ε − ξ 2 )Ψ(ξ) = 0,
que obviamente es del tipo (5.3) con τe(ξ) = 0, σ(ξ) = 1 y σ
e(ξ) = ε − ξ 2 . Para π(ξ), (5.7) nos
da
p
π(ξ) = ± ξ 2 + (k − ε).
Como el polinomio ξ 2 + (k − ε) ha de ser un cuadrado perfecto, entonces k = ε, y por tanto
π(ξ) = ±x, luego
π(ξ) = x,
π 0 (ξ) = 1,
λ = ε + 1,
τ (ξ) = 2x,
π(ξ) = −x,
π 0 (ξ) = −1,
λ = ε − 1,
τ (ξ) = −2x,
que nos conducen a las ecuaciones
y 00 (ξ) + 2ξy 0 (ξ) + (ε + 1)y(ξ) = 0,
y 00 (ξ) − 2ξy 0 (ξ) + (ε − 1)y(ξ) = 0,
respectivamente. En cada caso la función φ(ξ) es la solución de las ecuaciones φ 0 /φ = ξ y
φ0 /φ = −ξ, que conducen a las funciones
φ(ξ) = eξ
2 /2
,
y
φ(ξ) = e−ξ
2 /2
,
respectivamente. Finalmente, la ecuación y 00 (ξ) − 2ξy 0 (ξ) + (ε − 1)y(ξ) = 0 corresponde a
la ecuación hipergeométrica de los polinomios de Hermite, por tanto tenemos ε − 1 = 2n,
n = 0, 1, 2, . . . y las soluciones normalizadas de nuestra ecuación original serán
Ψ(ξ) = Nne−ξ
2 /2
Hn(ξ),
Para calcular Nn notamos que
Z
Z ∞
2
Ψ(x)Ψ(x)dx = Nn
luego Nn =
s
−∞
∞
−∞
ε = 2n + 1,
2
Hn2(ξ)e−ξ
dξ =
n = 0, 1, 2, . . . .
Nn2d2n ,
d2n
(5.8)
√
πn!
=
,
2n
2n
√
.
πn!
Es fácil ver que si la otra ecuación tiene como soluciones los polinomios Hn(−x), por lo que
2
sus soluciones Ψ(ξ) = eξ /2 Hn(−ξ) no son de cuadrado integrable en R, por lo que no tienen
sentido fı́sico. De esta forma las únicas soluciones estacionarias del oscilador armónico son las
funciones (5.8) anteriores.
57
6
x2 R0,0 2
5
4
x2 R3,1 2
3
x2 R3,0 2
2
1
-4
-2
4
2
6
8
Estado fundamental (negro) y exitados n = 1, 2 (grises) del oscilador armónico.
El átomo de hidrógeno.
La componente radial del átomo de hidrógeno, F (r) = R(r)/r, satisface la ecuación —la
ecuación está en unidades adimensionales—
1
l(l + 1)
00
R (r) + 2 E −
R(r) = 0.
−
r
r2
Luego, es del tipo (5.3) con
σ(r) = r,
Por tanto, tenemos
σ
e(r) = 2Er 2 + 2r − l(l + 1).
r
1
1
− 2Er 2 − 2r + l(l + 1) + kr.
π(r) = ±
2
4
La condición de que el discriminante de la ecuación de segunda grado en r de la raı́z sea cero
nos da
√
k± = 2 ± −2E(2l + 1),
luego π(r) se expresa por
1
π(r) = ±
2
( √
−2Er + (l + 1/2) k = k+
√
−2Er − (l + 1/2) k = k− .
De las
τ (r) seleccionaremos la que corresponde a k =
√ dos posibilidades para el polinomio
0
2 − −2E(2l + 1) de forma que τ < 0 y τ se anule13 en el interior de (0, ∞), luego —la otra
posibilidad conduce a una función no integrable en (0, +∞)—
√
τ (r) = 2(l + 1 − −2Er),
por tanto,
√
λ = k + π 0 (r) = 2(1 − (l + 1) −2E).
Usando (5.4) tenemos
√
φ0 (r) l + 1 − −2Er
=
,
φ(r)
r
=⇒
φ(r) = r l+1 e−
√
−2Er
Entonces la solución de nuestra ecuación es del tipo
R(r) = r l+1 e−
13
√
−2Er
y(r),
Recordemos que τ (x) = cP1 (x), siendo P1 el correspondiente polinomio ortogonal.
58
.
siendo y la solución de la ecuación
√
ry 00 (r) + [2(l + 1) − −2Er]y 0 (r) + λy(r) = 0.
√
El cambio lineal x = 2 −2Er nos transforma la ecuación anterior en la ecuación
e = √λ ,
λ
2 −2E
xy 00 (x) + [(2l + 1) + 1 − x]y 0 (x) + e
λy(x) = 0,
e = n, entonces λ =
que√corresponde a los polinomios de Laguerre L2l+1
(x). Además, como λ
n
2n −2E. Por otro lado, λ = k + π 0 (r), luego
E=−
1
2(n + l + 1)2
Ası́,
√
x = 2 −2Er,
R(r) = Nn,l xl+1 e−x/2 L2l+1
(x),
n
con Nn,l tal que
Z
Ahora bien,
Z ∞
2
∞
2
R (r)dr = 1,
=⇒
0
R (x)dx =
2
Nn,l
0
Z
∞
x
2l+2 −x
e
n+l+1
2
(L2l+1
(x))2dx
n
0
=
Z
∞
R2 (x)dx = 1.
0
2
Nn,l
Z
∞
ρ(x)x(L2l+1
(x))2dx =
n
0
2
2
= Nn,l
βn d2n = Nn,l
2(n + l + 1)n!(n + 2l + 2)!,
donde hemos usado la relación de recurrencia (3.16) para el producto x L 2l+1
(x) y luego la
n
ortogonalidad. Por tanto
s
1
Nn,l =
.
2
(n + l + 1) n!(2n + l + 1)!
0.07
x2 R0,0 2
0.06
0.05
x2 R3,1 2
0.04
x2 R3,0 2
0.03
0.02
0.01
5
15
10
20
25
Estado fundamental (negro) y exitado n = 1, l = 0, 1 (grises) del átomo de Hidrógeno
59
5.2.
La teorı́a de representación de grupos
Comenzaremos con algunas definiciones e ideas propias de la teorı́a de grupos. Para una
introducción más rigurosa recomendamos al lector consultar algún texto especı́fico de teorı́a de
grupos —e.g. [4, 19, 20, 21]—.
Un conjunto de elementos G es un grupo si a todo par ordenado (g 1, g2 ) de G le corresponde
un elemento g = g1 ∗ g2 y se cumple que:
1. (g1 ∗ g2 ) ∗ g3 = g1 ∗ (g2 ∗ g3) para todos g1 , g2, g3 de G, i.e., * es una operación asociativa,
2. existe un elemento e tal que e ∗ g = g ∗ e = g para todo g de G, i.e., existe el elemento
neutro respecto a *.
3. para todo g de G existe un elemento g 0 de G, que denotaremos por g −1 , y llamaremos
inverso de g tal que g ∗ g 0 = g 0 ∗ g = e.
Si la operación *, denominada comúnmente como multiplicación, es tal que para todos g 1 y
g2 de G se cumple g1 ∗ g2 = g2 ∗ g1, diremos que el grupo es conmutativo.
Por ejemplo, el conjunto de los números reales R es un grupo conmutativo respecto a la
adición estándar. Un ejemplo de grupo no conmutativo es el conjunto de las matrices cuadradas
con determinante no nulo respecto a la operación “multiplicación de matrices”.
Dentro de la teorı́a de grupos juegan un papel importante las clases de elementos conjugados.
Dos elementos g y g 0 de G se denominan conjugados si g 0 = g̃gg̃ −1 . Si g̃ recorre todo el grupo,
entonces puede ocurrir que aparezcan elementos iguales. Supongamos que g 1 y g2 son dos
elementos distintos conjugados a g. Entonces g1 y g2 son conjugados uno del otro ya que si
g1 = g̃gg̃ −1,
g2 = ḡgḡ −1
=⇒
g2 = (ḡg̃ −1 )g1(ḡg̃ −1 )−1 .
De esta forma se definen las clases de elementos conjugados de un grupo G como los conjuntos
constituidos por todos los elementos mutuamente conjugados.
Un grupo A conmutativo que tiene la “adición” (suma) como operación * se denomina anillo
si en A está definida la “multiplicación” y satisface la propiedad distributiva
g1 ∗ (g2 + g3 ) = g1 ∗ g2 + g1 ∗ g3 ,
(g1 + g2) ∗ g3 = g1 ∗ g3 + g3 ∗ g3.
Un anillo se dice asociativo (conmutativo) si tiene un elemento unidad respecto a la multiplicación y dicha operación tiene la propiedad asociativa (conmutativa). Un anillo conmutativo
se denomina campo. Como ejemplos de campos tenemos el conjunto de los números reales R y
complejos C.
Dado un anillo A y un campo K, se dice que A es un álgebra sobre K si, definida la operación
externa “·”, se cumple que para todos a, b de A y α, 1 de K, los elementos α · a, α · b pertenecen
aAy
α · (a + b) = α · a + α · b,
1 · a = a,
α · (a ∗ b) = (α · a) ∗ b = a ∗ (α · b).
Un álgebra compleja asociativa es un álgebra sobre C donde la operación multiplicación es
asociativa.
60
La teorı́a de representación
Definición 5.1 Sea R un espacio lineal cualquiera sobre C, el campo de los números complejos,
y T : R 7→ R un operador lineal sobre dicho espacio. Diremos que T es una representación de
G sobre R si a cada g ∈ G le corresponde un T(g) de forma que14
∀g1 , g2 ∈ G,
g = g 1 ∗ g2
=⇒
T(g1)T(g2) = T (g1 ∗ g2) = T (g),
T(e) = I,
donde I denota el operador indentidad15.
El espacio R se denomina espacio de la representación de G. Si R es de dimensión finita,
entonces se dice que la representación T es una representación finita, en caso contrario se dice
que es infinita.
En general, en R todo operador T : R 7→ R se puede representar mediante matrices cuadradas, en este caso se dice que T es una representación matricial de G. Cualquier base de R
se denomina base de la representación, además, el mayor número de vectores linealmente independientes de R determina la dimensión de R y por tanto la dimensión de la representación.
Ası́, dim T = dim R.
Cuando los elementos de la matriz asociada a T son funciones continuas de uno o más
parámetros, se dice que la representación T(g) es continua.
Definición 5.2 Sea T una representación de G en el espacio R. Diremos que un subespacio
R0 ⊂ R es invariante respecto a T (y por tanto respecto a la acción del grupo) si
∀g ∈ G,
∀r ∈ R0
=⇒
T(g)r ∈ R0.
Definición 5.3 Una representación T de G en el espacio R se llama irreducible si en R no
existe ningún otro subespacio invariante excepto el nulo y el mismo.
En otras palabras, T (g) es irreducible si no existe ningún cambio de base en R tal que en la
nueva base la representación matricial de T sea diagonal por bloques. Si denotamos por A la
matriz de cambio de base en R, entonces T es irreducible si y sólo si no existe A tal que


M1 0 · · · 0 0
 0 M2 · · · 0 0 


∀g ∈ G,
AT(g)A−1 =  ..
.. . . .. ..  ,
 .
. . . 
.
0
0 · · · 0 Mk
donde M1 , . . . Mk denotan ciertas matrices cuadradas no nulas y 0 son matrices de ceros.
Supongamos ahora que R está dotado de un producto escalar h·, ·i. En general, puesto
que R está definido sobre el campo de los números complejos C, el producto escalar involucrará números complejos. Por ejemplo, en el caso del producto
escalar estándar de vectores
P
r1 = (x1, . . . , xk ) y r2 = (x01, . . . x0k ), tendremos hr1 , r2 i = kj=1 xj x0j .
Definición 5.4 Una representación T de G en el espacio R se llama unitaria si el operador
T es unitario, o sea,
∀g ∈ G,
∀r1 , r2 ∈ R,
hT(g)r1, T(g)r2i = hr1 , r2 i.
14
Por T(g) denotaremos el operador asociado al elemento g ∈ G. Además, T(g) es un operador que actúa
sobre R.
15
Es decir para todo r ∈ R, Ir = r.
61
Definición 5.5 Dado un operador T : R 7→ R, se dice que T∗ es el conjugado de T si
hT∗r1 , r2 i = hr1, Tr2 i.
∀r1 , r2 ∈ R,
Si el operador T es unitario entonces
hr1 , r2 i = hTr1, Tr2 i = hr1, T∗ Tr2i
=⇒
T∗ = T−1,
de donde deducimos que para nuestra representación se tiene
T∗(g) = T−1(g) = T(g −1).
Cuando T es una representación matricial unitaria, entonces las matrices T han de ser hermı́tiT
cas, es decir T∗ij := Tij = Tji = Tij .
El grupo de rotaciones del espacio O(3).
5.3.
Vamos a estudiar el grupo formado por las rotaciones del espacio R3 respecto al origen.
Obviamente cualquier rotación del espacio está totalmente determinada mediante un eje de
rotación o dirección, y un ángulo φ. El eje lo determinamos mediante un vector unitario ~n,
ası́ cada elemento del grupo lo representaremos mediante g(~n, φ). Es fácil comprobar que el
conjunto de las rotaciones del espacio forman un grupo que además es no conmutativo —basta
ver que un giro de 90 grados respecto al eje 0x seguido de uno de 90 grados respecto al eje Oy
no coincide con un giro de 90 grados respecto al eje 0y seguido de uno de 90 grados respecto al
eje Ox—.
z
z
z
α
g replacements z
0
PSfrag replacements z
0
0
PSfrag replacements z
y 00
x000
β
γ
β
y
y z 00
z 00
x
x00
x0
γ
y0
y0
α
γ
x
x00
x0
x000
y
y0
00
y 00
y
z 00
α
β
x
x00
x0
x000
Figura 3: Ángulos de Euler
Existe una parametrización más sencilla de cualquier giro espacial debida a Euler y que se basa
en tres rotaciones consecutivas alrededor de los ejes coordenados. Imaginemos que hemos hecho
cierta rotación después de la cual los ejes xyz se transforman en x0 y 0 z 0. Para obtener dicho giro
haremos consecutivamente tres giros respecto a los ejes coordenados. El primero será de un
ángulo α respecto al eje 0z (ver figura 3 izquierda) de forma que los ejes 0x y 0y se transforman
en 0x00 y 0y 00 . La magnitud del giro α será tal que podamos, mediante un único giro de magnitud
β respecto al nuevo eje 0y 00 hacer coincidir el eje 0z en el 0z 0 buscado (ver figura 3 central)
—mediante este segundo giro el eje 0x00 se transformará en el 0x000 —, y finalmente, mediante
un giro de magnitud γ hacemos coincidir los ejes 0x000 y 0y 00 con los ejes 0x0 y 0y 0 ver figura 3
derecha).
Ası́ pues, los elementos el grupo O(3) quedan determinados por tres parámetros continuos
α, β y γ que además varı́an en los intervalos α ∈ [0, 2π), β ∈ [0, π] y γ ∈ [0, 2π). Los grupos
62
que dependen de parámetros continuos se suelen denominar grupos continuos 16. Además, como
la región de variación de los parámetros es acotada, el grupo se denomina compacto.
Sea O(3) el grupo de las rotaciones del espacio R3 respecto al origen. Obviamente cualquier
elemento de O(3) quedará completamente determinado por tres parámetros reales que determinen el correspondiente giro. Entonces, la acción de cualquier elemento de O(3) en R 3 se puede
representar mediante una matriz 3 × 3 que actúa sobre cualquier vector ~x = (x, y, z) T de R3 .
Sean gij (φ1 , φ2 , φ3 ) los elementos de dicha matriz.
Definiremos los generadores de O(3) como las matrices Ak cuyos elementos son
∂gij (φ1, φ2 , φ3 ) ,
(Ak )ij =
∂φk
φ1 =φ2 =φ3 =0
de donde tenemos que si hacemos un giro infinitesimal
g(φ1, φ2 , φ3 ) = I +
3
X
αk Ak + o(kαk),
k=1
es decir los generadores definen, en primera aproximación, a los elementos del grupo.
Consideremos, por ejemplo, dos rotaciones consecutivas alrededor de un eje fijo (digamos el
Oz) entonces tenemos
g(α1, 0, 0)g(α2 , 0, 0) = g(α1 + α2, 0, 0) = g(α, 0, 0),
g(0, 0, 0) = I.
Derivemos la expresión anterior respecto a α1 y pongamos α1 = 0, α2 = α, entonces tenemos
!
∂g(α, 0, 0)
∂g(α, 0, 0) =
g(α, 0, 0) = A1 g(α, 0, 0),
∂α
∂α
α=0
de donde se deduce que g(α, 0, 0) = exp(α A1 ). Para el resto de las rotaciones se procede de
forma análoga. Es decir, en general tenemos
g(~n, φ) = exp(φ A~n ),
z0
donde A~n representa el operador infinitesimal (generador)
del giro de magnitud infinitesimal respecto al eje definido
por ~n.
z
P 0 (y’z’)
PSfrag replacements
P
(y, z)
y0
θ
x0
(5.9)
θ
φ
(y 0, z 0)
α
β
γ x φ
Figura 4: Rotación del eje 0x
Encontremos a continuación los generadores de O(3).
Comenzaremos encontrando la matriz de giro respecto al
eje 0x. Para ello realizamos un giro φ alrededor de eje 0x.
Sean las coordenadas de cierto punto P en el plano Oyz
y antes de girar y sean (y 0 , z 0 ) las coordenadas después del
giro. Entonces tenemos (ver figura 4)
(y, z) = (r cos θ, r sen θ),
(y 0 , z 0 ) = (r cos(θ + φ), r sen(θ + φ)),
16
Un estudio detallado de los grupos continuos se puede encontrar en el magnı́fico libro de L. C. Pontriaguin,
“Grupos Continuos”.
63
de donde
y 0 = y cos φ − z sen φ,
z 0 = y sen φ + z cos φ,
es decir la matriz g1 correspondiente a este giro es


1
0
0
g(~nx , φ) =  0 cos φ − sen φ  .
0 sen φ cos φ
Entonces,
A1 =
∂g(~nx , φ) ∂φ
φ=0


0 0 0
=  0 0 −1  .
0 1 0
Análogamente, para los giros g(~ny , φ) y g(~nz , φ) respecto a los ejes Oy y Oz, respectivamente,
tenemos




0 0 1
cos φ 0 sen φ
∂g(~ny , φ) =  0 0 0 .
g(~ny , φ) = 
0
1
0 ,
A2 =
∂φ
−1 0 0
− sen φ 0 cos φ
φ=0




cos φ − sen φ 0
0 −1 0
∂g(~nz , φ) g(~nz , φ) =  sen φ cos φ 0  ,
A3 =
=  1 0 0 .
∂φ
0
0
1
0 0 0
φ=0
Un sencillo cálculo nos indica que
A1 A2 − A 2 A1 = A 3 ,
A2 A3 − A 3 A2 = A 1
A3 A1 − A 1 A3 = A 2
[A1 , A2 ] = A3
[A2 , A3 ] = A1
[A3 , A1 ] = A2 ,
donde [A, B] denota al conmutador [A, B] = AB − BA. Además, las matrices A i , i = 1, 2, 3,
son antihermı́ticas, es decir A∗ij = Aji = −Aij .
En vez de los operadores A1 , A2 y A3 se suele trabajar con los operadores hermı́ticos Jx , Jy
y Jz definidos por Jx = iA1, Jy = iA2 , Jz = iA3 , y los operadores Jz = iA3 , J+ = iA1 − A2 ,
J− = iA1 + A2 , de forma que se tiene
[J+ , J− ] = 2Jz ,
[Jz , J± ] = ±J± .
(5.10)
J±∗ = J∓ .
(5.11)
Además,
Jz∗ = Jz ,
Usando lo anterior y los ángulos de Euler tenemos que cualquier rotación del espacio se define
mediante el operador unitario
g(α, β, γ) = e−iγJz0 e−iβJy00 e−iαJz ,
(5.12)
donde Jz , Jy00 y Jz 0 son los operadores infinitesimales correspondientes a las rotaciones de los
ejes 0z, 0y 00 y 0z 0 respectivamente (ver la figura 3).
Finalmente, usando inducción y las reglas de conmutación (5.10) es fácil comprobar que
[Jz , J±k ] = kJ±k ,
[J+ , J−k ] = kJ−k−1 (2Jz − k + 1).
64
(5.13)
5.3.1.
Las representaciones unitarias Dj de O(3)
Como cualquier representación T del grupo O(3) sobre un espacio lineal R debe respetar la regla de multiplicación del grupo, entonces si denotamos por T(g) a los elementos de
cierta representación de O(3), y sean Jz : R 7→ R, J+ : R 7→ R y J− : R 7→ R, los generadores (las matrices u operadores infinitesimales de la representación), entonces J z y J± han
de satisfacer las mismas relaciones de conmutación (5.10) y relaciones respecto a la operación ∗.
Vamos a restringirnos a encontrar los elementos matriciales de los generadores J z y J±
de cualquier representación finita y unitaria de O(3) en la base Ψ de autovectores de J z .
Probaremos la siguiente
Proposición 5.1 Si Jz Ψ = λΨ, entonces J± Ψ es un autovector de Jz correspondiente al autovalor λ ± 1.
Demostración: Usando las relaciones de conmutación (5.10)
Jz (J± Ψ) = (J± Jz ± J± )Ψ = (λ ± 1)J± Ψ,
por tanto J± Ψ es el autovector de Jz correspondiente a λ ± 1.
Vamos a construir las representaciones irreducibles (RI) finitas17 de O(3) que denotaremos
por Dj . Ante todo notemos que al ser los operadores (matrices) Jz hermı́ticas, entonces sus
correspondientes autovalores son reales18 y además, los autovectores correspondientes a autovalores distintos son ortogonales19.
Sea j el mayor autovalor de Jz y Ψj el correspondiente autovector, es decir Jz Ψj = jΨj .
Impondremos que hΨj , Ψj i = 1. Como la representación es finita y j es el autovector más grande
entonces J+ Ψj = 0. Sea J− Ψj = αj Ψj−1 , donde αj lo escogeremos de forma que hΨj−1 , Ψj−1 i =
1. Además Jz Ψj−1 = (j − 1)Ψj−1 , entonces
J− (J− Ψj ) = J− αj Ψj−1 = αj αj−1 Ψj−2 ,
con Jz Ψj−2 = (j − 2)Ψj−2 , y ası́ sucesivamente podemos construir los vectores Ψj , Ψj−1 , . . . ,
Ψj−k , es decir
Φm = Nj,m J−j−m Φj .
Ahora bien, como estamos tratando las RI finitas, entonces sólo puede haber un número finito
de autovalores para las correspondientes matrices J± , ası́ que existirá cierto k de forma que
J− Ψj−k = 0, ası́ que αj−k = 0. En general tendremos
Jz Ψm = mΨm ,
J− Ψm = αm Ψm−1 ,
m = j, j − 1, . . . , j − k,
αj−k = 0.
Ahora bien,
J+ Ψj = 0,
17
18
J+ Ψj−1 =
1
2j
1
J+ J− Ψj = (J− J+ + 2Jz )Ψj = Ψj ,
αj
αj
αj
Es sabido que las representaciones irreducibles de un grupo compacto son finitas, no siendo ası́ en general.
En efecto, puesto que Jz Ψj = jΦj , Jz∗ Ψj = jΦj , entonces
jkΨj k = hΨj , Jz Ψj i = hJz∗ Ψj , Ψj i = hJz Ψj , Ψj i = j kΨj k
19
=⇒
j = j.
Ello es consecuancia de que Jz∗ = Jz , y entoncs para j 6= m,
0 = hJz Ψj , Ψm i − hΨj , Jz Ψm i = (j − m)hΨj , Ψm i
65
=⇒
hΨj , Ψm i = 0.
entonces, por inducción tendremos que J+ Ψm = βm Ψm+1 . Ya hemos visto que es cierto para
m = j − 1. Supongamos que lo es para Ψj , . . . , Ψm , entonces
J+ Ψm−1 =
1
αm+1 βm + 2m
1
J+ J− Ψ m =
(J− J+ + 2Jz )Ψm =
Ψm = βm−1 Ψm ,
αm
αm
αm
es decir, αm+1 βm − αm βm−1 = −2m, βj = 0. Finalmente, como
βm = hΨm+1 , J+ Ψm i = hJ− Ψm+1 , Ψm i = αm+1
la ecuación anterior nos da
α2m
−
α2m+1
= 2m
=⇒
α2m
−
α2j+1
=
j
X
k=m
de donde, al ser αj+1 = 0, deducimos
p
αm = (j + m)(j − m + 1),
(α2k − α2k+1 ) = (j + m)(j − m + 1),
βm =
Ası́ pues
p
(j + m + 1)(j − m).
Jz Ψm = mΨm
p
p
(j − m)(j + m + 1)Ψm+1 = j(j + 1) − m(m + 1)Ψm+1
J+ Ψ m =
p
p
J− Ψ m =
(j + m)(j − m + 1)Ψm+1 = j(j + 1) − m(m − 1)Ψm−1 .
(5.14)
Como J− Ψ−j = 0, tenemos que el menor autovector es m = −j, entonces, como número total
de autovectores es 2j + 1, j sólo puede ser un número entero o semientero, por tanto en la
fórmula (5.14) tenemos j = 0, 21 , 1, 32 , 2 . . ., m = −j, −j + 1, . . . , j − 1, j. Además, usando las
relaciones generalizadas (5.13) es fácil comprobar que
2
2
hΨm , Ψm i = Nj,m
hJ−j−m Ψj , J−j−m Ψj i = Nj,m
hΨj , J+j−m J−j−m Ψj i
2
= Nj,m
(j − m)(j + m + 1)hΨj , J+j−m−1 J−j−m−1 Ψj i,
de donde se deduce que los autovectores normalizados son20
s
(j + m)!
J−j−m Ψj ,
Ψm =
(2j)!(j − m)!
(5.15)
donde j = 0, 12 , 1, 32 , 2, . . . , m = −j, −j + 1, . . . , j − 1, j.
Probemos ahora que las representaciones Dj definidas sobre cualquiera de los espacios lineales R generados por los vectores Ψ−j , Ψ−j+1 . . . , Ψj son irreducibles. Para ello supondremos
que en R hay un subespacio invariante R0 respecto a todas las transformaciones T(g), y en
particular a las transformaciones infinitesimales Ak , k = 1, 2, 3, o Jz y J± . Sea Φ un vector
propio correspondiente al mayor autovalor de la matriz de Jz en R0. Dado que Φ ∈ R0 ⊂ R,
entonces podemos desarrollarlo en la base de R,
Φ=
j
X
cm Ψ m .
m=−j
20
k−1 k−1
k k
Es más fácil verlo de la forma hΨj , J+
J− Ψj i = k(2j − k + 1)hΨj , J+
J− Ψj i.
66
Como Φ corresponde al mayor autovalor de Jz , entonces J+ Φ = 0, luego
J+ Φ =
j
X
m=−j
c m J+ Ψ m =
j
X
m=−j
cm
p
(j − m)(j + m + 1)Ψm+1 = 0.
Ahora bien, los vectores Ψ−j , Ψ−j+1 , . . . , Ψj son linealmente independientes, de donde se tiene
que
p
m = −j, −j + 1, . . . j − 1, j,
cm (j − m)(j + m + 1) = 0,
p
pero como (j − m)(j + m + 1) 6= 0, m = −j, −j + 1, . . . j − 1, entonces deducimos que
cm = 0 para m = −j, −j + 1, . . . j − 1. Ası́ pues, Φ = cj Ψj y por tanto Ψj ∈ R0 . Pero
como R0 es invariante respecto a todas las transformaciones T(g) entonces, los vectores Ψ m ,
m = −j, −j + 1, . . . j − 1, j, pertenecen a R0 , lo que implica que R0 coincide con R, lo que
prueba que las representaciones de dimensión 2j + 1 anteriores son irreducibles.
Si usamos ahora los ángulos de Euler y la fórmula (5.12) tenemos
T(g) = e−iγJz0 e−iβJy00 e−iαJz ,
(5.16)
donde Jz , Jy00 y Jz 0 son las representaciones infinitesimales correspondientes a las rotaciones de
los ejes 0z, 0y 00 y 0z 0 respectivamente (ver la figura 3).
Es fácil comprobar que las clases de elementos conjugados en O(3) están constituı́das por
las rotaciones de la misma magnitud φ alrededor de cualquier eje ~n. Para ello basta notar que
si tenemos el giro g(~n, φ) y el g 0 (n~0 , φ), entonces
g 0 (n~0 , φ) = g̃g(~n, φ)g̃ −1 ,
siendo g̃ el giro que lleva el eje n~0 a ~n. Por tanto lo mismo ocurrirá para las correspondientes
representaciones
T g 0 (n~0 , φ) = T (g̃) T (g(~n, φ)) T g̃ −1 ,
Usando lo anterior y la expresión (5.9) tenemos
e−iγJz0 = e−iβJy00 e−iγJz eiβJz00 ,
ya que T (g̃) en este caso corresponde al giro que transforma el eje Oz en el Oz 0 que es precisamente la rotación mediante el ángulo β alrededor del eje Oy 00 (ver la figura 3). Análogamente
e−iβJy00 = e−iαJz e−iβJy eiαJz .
Sustituyendo ambas expresiones en (5.16) obtenemos
T(g) = e−iαJz e−iβJy e−iγJz ,
(5.17)
j
Sea Dmm
0 (α, β, γ) los elementos matriciales de T(g) en la base Ψ −j , Ψ−j+1 . . . , Ψj de R anterior,
j
iαJz
Dmm
Ψm , e−iβJy e−iγJz Ψm0 i.
0 (α, β, γ) = hΨm , T(g)Ψm0 i = he
(5.18)
Entonces, como Jzk Ψm = mk Ψm para todo k ∈ N, tenemos
j
−iαm
Dmm
hΨm , e−iβJy Ψm0 ie−iγm = eiγm djmm0 (β)e−iαm ,
0 (α, β, γ) = e
0
67
0
(5.19)
j
donde djmm0 (β) = hΨm , e−iβJy Ψm0 i. Las funciones Dmm
0 (β) se conocen como armónicos esféricos
generalizados o funciones de Wigner. Una propiedad inmediata de las funciones de Wigner es
la ortogonalidad
j
X
j
j
Dmk
(α, β, γ)Dm
0 k (α, β, γ) = δmm0 .
k=−j
Ello es consecuencia de que las RI Dj son unitarias. Además, como g −1 (α, β, γ) = g(π −
γ, β, −π − α), tenemos,
j
j
j
T
Dmm
= Dm
0 (α, β, γ)
0 m (α, β, γ) = Dmm0 (π − γ, β, −π − α).
De donde se deduce, en particular, que21
djmm0 (β) = (−1)m−m djm0 m (β) = djm0 m (−β).
0
Es fácil comprobar que si hacemos dos giros consecutivos g1(α1 , β1 , γ1 ) y g2(α2 , β2 , γ2 ), entonces
si g = g1 g2 = g(α, β, γ), entonces
j
Dmm
0 (α, β, γ)
=
j
X
j
j
Dmk
(α1, β1 , γ1 )Dkm
0 (α2 , β2 , γ2 ).
k=−j
Sea ahora el operador
J 2 = Jx2 + Jy2 + Jz2 = J+ J− + Jz2 − Jz = J− J+ + Jz2 + Jz .
(5.20)
El operador anterior se denomina operador de Casimir y tiene la propiedad de conmutar con
los generadores J± y Jz , es decir,
[J 2 , Jz ] = [J 2 , J± ] = 0.
Por ejemplo, usando las relaciones de conmutación (5.10)
[J 2 , Jz ] = [J− J+ , Jz ] = J− J+ Jz − Jz J− J+ = J− J+ Jz − J− Jz J+ + J− J+
= J− J+ Jz + J− J+ − J− J+ Jz − J− J+ = 0.
El resto es análogo.
Ahora bien, usando (5.15) tenemos
s
s
(j + m)!
(j + m)!
J 2 Ψm =
J 2 J−j−m Ψj =
(J− J+ + Jz2 + Jz )Ψj
(2j)!(j − m)!
(2j)!(j − m)!
s
(j + m)!
= j(j + 1)
Ψj = j(j + 1)Ψm .
(2j)!(j − m)!
Ası́ pues, los elementos de la base de cualquier RI de O(3) quedan determinados por los autovalores de los operadores J 2 y Jz que a su vez determinan la dimensión j (2j + 1) y el valor de
m, mediante las fórmulas
J 2 Ψjm = j(j + 1)Ψjm ,
21
La última igualdad es algo más complicada de probar.
68
Jz Ψjm = mΨjm .
(5.21)
En la mécanica cuántica estos operadores corresponden al operador momento angular (J) y su
j
proyección sobre el eje Oz (Jz ). Veamos ahora la interpretación de las funciones de Wigner Dmm
0.
Supongamos que hemos fijado el espacio R de la RI Dj . Obviamente al aplicar el operador T (g)
sobre R obtendremos una nueva base que denotaremos por Ψ0jm0 , de forma que Ψ0jm0 = T (g)Ψjm ,
pero entonces
Ψ0jm0
=
j
X
j
Dmm
0 (α, β, γ)Ψjm ,
j
Dmm
0 (α, β, γ) = hΨjm , T(g)Ψjm0 i,
m=−j
(5.22)
es decir, las funciones de Wigner determinan a la matriz de cambio de la base Ψ jm a la nueva
base Ψ0jm0 al realizar el giro g(α, β, γ). Existen varias formas para encontrar la expresión explı́cita
de las funciones de Wigner aunque no nos vamos a detener en ellas22 .
Ası́, se tiene
s
0
0
(j + m)!
0
− m+m
− m−m
2
2
(1
+
s)
×
djmm0 (β) = (−1)j−m 2−j
(1
−
s)
(j + m0)!(j − m0)!(j − m)!
(5.23)
i
j−m h
d
0
0
× j−m (1 − s)j−m (1 + s)j+m ,
s = cos β.
ds
Comparando esta fórmula con la fórmula de Rodrigues para los polinomios de Jacobi se deduce
s
r
2j + 1 j
ρ(s) µ,ν
0
s = cos β,
P (s),
dmm0 (β) = (−1)m−m
2
d2n n
con n = j − m, µ = m − m0 y ν = m + m0 . De la expresión anterior se deduce en particular que
Z π
0
2
δjj 0 .
djmm0 (β)djmm0 (β) sen β dβ =
2j + 1
0
Usando la ortogonalidad de las funciones de Wigner y la relación anterior (5.23), que nos
indica que las funciones djmm0 son reales, obtenemos la siguiente ortogonalidad discreta
j
X
djmk (β)djm0 k (β) = δmm0 .
k=−j
No es difı́cil comprobar que ésta corresponde a los polinomios de Kravchuk, ası́ pues
s
ρ(s) p
0
(−1)m−m djmm0 (β) =
k (s, N ),
p = cos β,
d2n n
con n = j − m, s = j − m0 y N = 2j. A partir de las conexiones entre las funciones djmm0 y los
polinomios ortogonales se deducen una gran cantidad de propiedades de estos a partir de las
de aquellos.
5.3.2.
Los coeficientes de Clebsch-Gordan
Sean T1 y T2 dos representaciones cualesquiera de O(3) y sean R1 y R2 los correspondientes
espacios lineales. Sean Ψj1 m1 y Ψj2 m2 las bases de dichos espacios. Definamos el espacio R
formado por todas las combinaciones lineales del tipo
X
Ψ=
cm1 m2 Ψ j 1 m1 Ψ j 2 m2 .
m1 ,m2
22
El lector puede remitirse a los textos clásicos de teorı́a de grupos como, por ejemplo [19, 20, 21], y especialmente a [14], donde hay una prueba muy sencilla.
69
Dicho espacio se denomina producto tensorial de R1 y R2 y lo denotaremos R = R1 × R2. Una
base de R es obviamente el conjuntoP
de todos los pares Ψj1 mP
1 Ψj2 m2 . Obviamente el producto de
cualquier función de R1 y R2 , Ψ1 = m1 cm1 Ψj1 m1 y Ψ2 = m2 cm2 Ψj2 m2 pertenece a R1 × R2 .
Definamos una representación de O(3) sobre R1 × R2 de la siguiente forma: el giro g transforma la base Ψj1 m1 en la nueva base T1(g)Ψj1 m1 y la base Ψj2 m2 en la nueva base T2(g)Ψj2 m2 ,
definamos el producto tensorial de dos representaciones T(g) = T1 (g) × T2(g) sobre R1 × R2
de forma que
T(g)(Ψj1m1 Ψj2 m2 ) = (T1(g)Ψj1 m1 )(T2(g)Ψj2m2 ).
(5.24)
Es sencillo comprobar que los operadores T definidos de esta forma definen una representación
de G en R = R1 × R2
T(g1g2 )(Ψj1m1 Ψj2 m2 ) = [T1 (g1g2)Ψj1 m1 ][T2 (g1g2)Ψj2 m2 ]
= [T1 (g1)T1(g2)Ψj1m1 ][T2 (g1)T2(g2)Ψj2m2 ]
= T1(g1)T2(g1)[T1 (g2)Ψj1m1 T2(g2)Ψj2 m2 ]
= T(g1)[(T(g2)Ψj1 m1 )(T2(g)Ψj2m2 )] = [T(g1)T(g2)]Ψj1 m1 Ψj2 m2
Dicha representación se denomina producto tensorial de las representaciones R1 y R2. Si
ahora definimos el producto escalar en R de la forma
hΨj1 m1 Ψj2 m2 , Ψj1 m01 Ψj2 m02 i = hΨj1 m1 , Ψj1 m01 ihΨj2 m2 , Ψj2 m02 i,
entonces, si T1 y T2 son unitarias, T = T1 × T2 también lo es.
Sea T(g) = eφ An~ el operador de la representación T que actúa sobre R, asociado al elemento
g correspondiente a un giro de magnitud φ respecto al eje ~n, donde como antes A~n denota al
operador infinitesimal correspondiente a dicho giro que actúa en el espacio R. Entonces si
T(g) = T1(g) × T2(g), usando (5.24) tendremos
eφ An~ (Ψj1m1 Ψj2 m2 ) = (eφ An~ ,1 Ψj1 m1 )(eφ An~ ,2 Ψj2 m2 ),
siendo A~n,k , k = 1, 2 el operador infinitesimal correspondiente a dicho giro que actúa en el
espacio Rk . Entonces, derivando respecto a φ y haciendo φ = 0 obtenemos
A~n (Ψj1 m1 Ψj2 m2 ) = (A~n,1 Ψj1 m1 )Ψj2 m2 + (A~n,2 Ψj2 m2 )Ψj1 m1 ,
pero por definición
A~n,1 (Ψj1 m1 Ψj2 m2 ) = (A~n,1 Ψj1 m1 )Ψj2m2 ,
A~n,2 (Ψj1 m1 Ψj2 m2 ) = (A~n,2 Ψj2 m2 )Ψj1m1 ,
por tanto A~n = A~n,1 + A~n,2 y [A~n,1 , A~n,2 ] = 0. En particular, se cumplirá para los operadores
Jx , Jy y Jz definidos anteriormente y por tanto para los J± .
Lo anterior nos indica que si J± (k) y Jz (k), k = 1, 2, son los generadores de las representaciones T1 y T2 en R1 y R2 , respectivamente, entonces los generadores de T = T1 × T2 en
R1 × R2 son
J± = J± (1) + J± (2),
Jz = Jz (1) + Jz (2),
que cumplen las mismas relaciones de conmutación (5.10) que antes.
En adelante trabajaremos con las RI de O(3), Dj . Obviamente en el espacio R = R1 × R2
donde está definido el producto D1 × D2 existe una base que denotaremos por Ψjm tal que se
tiene (5.14), pero además tendremos
X
(5.25)
hj1 m1, j2 m2|jmiΨj1 m1 Ψj2 m2 ,
Ψjm =
m1 ,m2
70
donde hj1 m1, j2 m2|jmi se denominan coeficientes de Clebsch-Gordan. Además, es conocido que
dados los valores de j1 y j2 de las RI de O(3), j toma los valores desde |j1 − j2 | hasta j1 + j2 ,
lo que simbólicamente se representa por
j1 +j2
j1
j2
D ⊗D =
X
j=|j1 −j2 |
⊕D j .
Además, como Jz = Jz (1) + Jz (2), es fácil comprobar que m = m1 + m2 .
Si ahora aplicamos el operador J 2 = (J1 + J2 )2 sobre (5.25) obtenemos la relación de
recurrencia (ecuación en diferencias)
p
[j2 − m2 + 1][j2 + m2][j1 + m1 + 1][j1 − m1]hj1 m1 + 1, j2 m2 − 1|jmi+
p
[j2 + m2 + 1][j2 − m2][j1 + m1][j1 − m1 + 1]hj1 m1 − 1, j2 m2 + 1|jmi+
(5.26)
j(j + 1) − j1 (j1 + 1) − j2 (j2 + 1) − 2m1m2 hj1 m1, j2 m2|jmi = 0 .
Esta ecuación se transforma directamente en la ecuación en diferencias (4.3) escrita en la red
uniforme x(s) = s
[σ(s) + τ (s)]y(s + 1) + σ(s)y(s − 1) + [λ − 2σ(s) + τ (s)]y(s) = 0.
(5.27)
para los polinomios de Hahn mediante el cambio
hj1 m1 , j2 m2 |jmi = (−1)s+n
s
ρ(s) αβ
h (s, N ),
d2n n
(5.28)
donde s = j1 − m1, N = j1 + j2 − m + 1, α = m + j1 − j2 , β = m − j1 + j2 , n = j − m, y ρ(s),
(α,β)
dn denotan las funciones peso y la norma de los polinomios de Hahn hn (s, N ).
Otra posibilidad es la siguiente
s
ρ(s) αβ
(5.29)
h (s, N )q ,
hj1 m1j2 m2 |jmiq = (−1)N −s−1
d2n n
donde s = j2 − m2, N = j1 + j2 − m + 1, α = m − j1 + j2 , β = m + j1 − j2 , n = j − m.
Ambas relaciones nos permiten traducir todas las propiedades estudiadas para los polinomios
de Hahn en propiedades para los coeficientes de Gordan-Clebsch. Por ejemplo, la ortogonalidad
de los polinomios de Hahn se transforma en la siguiente propiedad de ortogonalidad para los
CCG
X
(5.30)
hj1 m1, j2 m2|jmihj1 m1, j2 m2|j 0 m0i = δjj 0 δmm0 .
m1 ,m2
La propiedad de simetrı́a de los polinomios de Hahn se transforma en la propiedad de
simetrı́a para los CCG
(−1)j1+j2 −j hj1 − m1 , j2 − m2|j − mi = hj1 m1 , j2 m2 |jmi,
71
(5.31)
La relación de recurrencia a tres términos para los polinomios de Hahn se transforma en la
siguiente relación de recurrencia en j para los CCG
0=
q
[j−m][j+m][j1 +j2 +j+1][j2 −j1 +j][j−j2 +j1 ][j1 +j2 −j+1]
hj1 m1, j2 m2|j − 1mi
[2j+1][2j−1][2j]2
+ m2
+
q
−
j(j+1)+j2 (j2 +1)−j1 (j1 +1)−jj2
2j(j+1)
hj1 m1 , j2 m2 |jmi+
[j−m+1][j+m+1][j1 +j2 +j+2][j2 −j1 +j+1][j−j2 +j1 +1][j1 +j2 −j]
hj1 m1, j2 m2|j +1mi.
[2j+3][2j][2j+2]2
La fórmula de diferenciación de los polinomios de Hahn se transforma en la siguiente relación
de recurrencia para los CCG
p
(j1 ± m1 )(j1 ∓ m1 + 1)hj1 m1 ∓ 1, j2 m2 |jmi
+
p
=
(j2 ± m2)(j2 ∓ m2 + 1)hj1 m1, j2 m2 ∓ 1|jmi
p
(j ∓ m)(j ± m + 1)hj1 m1 , j2 m2 |jm ± 1i.
Finalmente, usando la expresión explı́cita de los polinomios de Hahn tenemos
hj1 m1, j2 m2|jmi =
= (−1)j1−m1
×
X
z
s
(−1)z
[2j + 1][j − m]![j + m]![j1 − m1]![j2 − m2]![j1 + j2 − j]!
×
[j1 + j2 + j + 1]![j1 − j2 + j]![−j1 + j2 + j]![j1 + m1]![j2 + m2 ]!
[j1 − m1 + z]![j + j2 − m1 − z]!
,
[z]![j − m − z]![j1 − m1 − z]![j2 − j + m1 + z]!
donde la suma recorre los valores de z para los cuales todos los factoriales tienen argumentos
positivos.
Obviamente las representaciones en serie hipergeométrica de los polinomios de Hahn nos
permiten escribir los CCG del grupo O(3) como una serie 3F2.
72
Referencias
[1] M. Abramowitz y I. A. Stegun, Handbook of Mathematical Functions. Dover, New York,
1964.
[2] W. A. Al-Salam, Characterization theorems for orthogonal polynomials. En: Orthogonal
Polynomials: Theory and Practice. P. Nevai (Ed.) NATO ASI Series C, Vol. 294. Kluwer
Acad. Publ., Dordrecht, 1990, 1-24.
[3] R. Álvarez-Nodarse, Polinomios hipergemétricos y q-polinomios. Monografı́as del Seminario Matemático “Garcı́a de Galdeano” Vol. 26. Prensas Universitarias de Zaragoza,
Zaragoza, 2003.
[4] A. O. Barut, R. Ra̧czka, Theory of group representations and applications. World Scientific
Publishing Co., Singapur, 1986 (segunda edición).
[5] C. W. Cryer, Rodrigues’ formula and the classical orthogonal polynomials. Boll. Un. Mat.
Ital., 25(3) (1970), 1-11.
[6] T. S. Chihara, An Introduction to Orthogonal Polynomials. Gordon and Breach Science
Publishers, Nueva York, 1978
[7] A. G. Garcı́a, F. Marcellán y L. Salto, A distributional study of discrete classical orthogonal polynomials. J. Comput. Appl. Math. 57 (1995), 147-162.
[8] E. Grosswald, Bessel Polynomials. Lecture Notes in Mathematics Vol. 698. SpringerVerlag, Berlı́n, 1978.
[9] E. H. Hildebrandt, Systems of polynomials connected with the Charlier expansion and
the Pearson differential and difference equation. Ann. Math. Statist. 2 (1931), 379-439.
[10] R. Koekoek y R. F. Swarttouw, The Askey-scheme of hypergeometric orthogonal polynomials and its q-analogue. Reports of the Faculty of Technical Mathematics and Informatics
No. 98-17. Delft University of Technology, Delft, 1998.
[11] H. L. Krall, On the derivatives of orthogonal polynomials II. Bull. Amer. Math. Soc. 47
(1941), 261-264.
[12] H. L. Krall y O. Frink, A new class of orthogonal polynomials: the Bessel polynomials.
Trans. Amer. Math. Soc. 65 (1949), 100-115.
[13] F. Marcellán y J. Petronilho, On the solutions of some distributional differential equations:
existence and characterizations of the classical moment functionals. Integral Transform.
Spec. Funct. 2 (1994), 185-218.
[14] A. F. Nikiforov, S. K. Suslov y V. B. Uvarov, Classical Orthogonal Polynomials of
a Discrete Variable. Springer Series in Computational Physics. Springer-Verlag, Berlı́n,
1991. (Edición en ruso, Nauka, Moscú, 1985)
[15] A. F. Nikiforov y V. B. Uvarov, Special Functions of Mathematical Physics. Birkhäuser
Verlag, Basilea, 1988.
[16] A. F. Nikiforov y V. B. Uvarov, Polynomial Solutions of hypergeometric type difference
Equations and their classification. Integral Transform. Spec. Funct. 1 (1993), 223-249.
[17] G. Szegö, Orthogonal Polynomials. Amer. Math. Soc. Coll. Pub. 23 American Mathematical Society, Providence, Rhode Island, 1975 (cuarta edición).
73
[18] F. Tricomi, Vorlesungen über Orthogonalreihen. Grundlehren der Mathematischen Wissenschaften 76, Springer-Verlag, Berlı́n-Gottinga-Heidelberg, 1955.
[19] N. Ja. Vilenkin, Special Functions and the Theory of Group Representations. Trans. of
Math. Monographs. 22. American Mathematical Society, Providence, Rhode Island, 1986.
[20] N. Ja. Vilenkin y A.U. Klimyk, Representations of Lie Groups and Special Functions.
Vol. I,II,III. Kluwer Academic Publishers. Dordrecht, 1992.
[21] E. P. Wigner, Group Theory and its Application to the Quantum Mechanics of Atomic
Spectra. Academic Press, New York, 1959.
74

Documentos relacionados