Prefacio V
Bibliografı́a 23
iii
iv ÍNDICE
Prefacio
Contexto y objetivos
Las ecuaciones de la fı́sica
Todas las ecuaciones de la fı́sica son ecuaciones diferenciales en derivadas parciales (EDP), cuya
solución, en la inmensa mayorı́a de los casos, requiere el uso de métodos numéricos. El objetivo de
esta parte del curso es introducir algunos de los métodos numéricos más estables y mejor fundamen-
tados matemáticamente que existen para resolver ecuaciones diferenciales en derivadas parciales:
los métodos espectrales.
Sólo por mencionar unos pocos ejemplos de EDPs de interés en fı́sica (usando la notación más
extendida en cada caso), tenemos las ecuaciones de Navier-Stokes de la Mecánica de Fluidos1 , las
ecuaciones de conservación de las especies quı́micas en una mezcla2 , o la ecuación del calor3 (tan
importantes en todas las ramas de la ingenierı́a y en meteorologı́a). Por otra parte tenemos las
ecuaciones del Electromagnetismo de Maxwell4 , las ecuaciones de la Relatividad General de Eins-
tein5 , las ecuaciones de la Mecánica Cuántica (ecuación de Schrödinger6 en el caso no relativista y
de Klein-Gordon7 para el caso relativista), o la ecuación de evolución de la densidad de probabili-
1
( )
∂ρ ∂v
+ ∇ · (ρv) = 0, ρ + (v · ∇) v = −∇p + ∇ · τ ′ + ρf (1)
∂t ∂t
2
( )
∂Yi
ρ + (v · ∇) Yi = −∇ · j i + Wi (2)
∂t
3
∂T
= α∆T (3)
∂t
4
∂B ∂D
∇ · D = ρ, ∇ · B = 0, ∇×E =− , ∇×H =J + (4)
∂t ∂t
5
8πG
Gµν = Tµν (5)
c4
6
∂ψ ℏ2
iℏ =− ∆ψ + V ψ (6)
∂t 2m
7
1 ∂2ψ m2 c2
+ ψ = ∆ψ (7)
c2 ∂t2 ℏ2
v
vi PREFACIO
dad para un sistema estocástico (ecuación de Fokker-Planck8 ). Incluso la Mecánica Clásica puede
formularse por medio de una ecuación diferencial en derivadas parciales (la ecuación de Hamilton-
Jacobi9 ) aunque es más habitual su formulación en términos de ecuaciones diferenciales ordinarias
(la ecuación de Newton10 , las ecuaciones de Euler-Lagrange11 o las de Hamilton12 ), por no hablar
de la ecuación de ondas13 , o de la ecuación de Laplace14 y podrı́an citarse fácilmente otros muchos
ejemplos.
Todas las leyes de evolución de la fı́sica pueden expresarse como ecuaciones diferenciales en
derivadas parciales. Esto no es sorprendente si tenemos en cuenta que, en general, cualquier ley
fı́sica que exprese un principio de conservación para una magnitud descriptible por medio de un
campo (una función del espacio, del tiempo, y posiblemente de otros grados de libertad internos)
llevará a una relación que deben cumplir las derivadas de esa función respecto de sus variables, es
decir, a una ecuación diferencial en derivadas parciales.
Desde el punto de vista práctico la principal consecuencia es que para hacer una predicción sobre
la evolución temporal de prácticamente cualquier sistema fı́sico es necesario resolver una ecuación
diferencial en derivadas parciales, el problema es que normalmente ninguna de estas ecuaciones
puede resolverse de manera exacta (analı́tica) en ningún caso realista. Esto tampoco es demasiado
sorprendente si tenemos en cuenta la gran riqueza de comportamientos observados en los sistemas
fı́sicos que vemos a diario, como por ejemplo algo tan común y a la vez tan complejo como la
turbulencia en el flujo de un fluido aparentemente sencillo15 a números de Reynolds elevados, des-
crita satisfactoriamente por las ecuaciones de Navier-Stokes. Esa gran riqueza de comportamientos
posibles es compatible con las ecuaciones de evolución que expresan las leyes fı́sicas verificadas por
esos procesos. Es evidente que una ecuación de evolución capaz de encerrar en el conjunto de sus
soluciones tal variedad de comportamientos y de posibilidades no puede ser algo sencillo, susceptible
de ser resuelto analı́ticamente de manera trivial.
8
∂f
+ ∇ · (U f ) = ∆ (D f ) + H (8)
∂t
9
( )
∂S ∂S ∂S
H q1 , . . . , qN ; ,..., ;t + =0 (9)
∂q1 ∂qN ∂t
10
dv
F =m (10)
dt
11
∂L d ∂L
− =0 (11)
∂qi dt ∂ q̇i
12
∂H ∂H
q̇i = , ṗi = − (12)
∂pi ∂qi
13
∂2f
= c2 ∆f (13)
∂t2
14
∆f = 0 (14)
15
un fluido incompresible con viscosidad constante, formado por un único componente en una sola fase en ausencia
de reacciones quı́micas
vii
Por tanto, para hacer predicciones sobre la evolución temporal de prácticamente cualquier siste-
ma fı́sico tendremos que recurrir a un método numérico, es decir, una aproximación que transforme
los operadores de derivación que aparecen en la ecuación original por operaciones algebraicas,
aproximando ası́ la EDP de partida por la correspondiente ecuación algebraica. Esto implica que
la predicción que seremos capaces de realizar será necesariamente aproximada (nunca exacta), lo
cual tampoco es tan grave si tenemos en cuenta que en la formulación de la propia ley de evolución
que queremos resolver también se han realizado aproximaciones. La consecuencia más grave es que
nuestras predicciones estarán siempre limitadas a un determinado intervalo de tiempo finito.
Aunque la regla general es que necesitamos un método numérico para hacer predicciones, tam-
bién hay casos excepcionales, casos lı́mite, en los que es posible obtener una solución analı́tica, o
bien de manera exacta (por medio del método de las caracterı́sticas o de el de separación de va-
riables [29, 31, 39], o por medio del análisis de simetrı́a de la ecuación diferencial—invariancia Lie
[42]) o bien de manera aproximada (por medio de métodos perturbativos o de desarrollos asintóticos
[37, 40, 41, 43]). El interés de los casos lı́mite en los que es posible obtener soluciones analı́ticas no
es meramente académico, ya que gracias a la información que se extrae de dichos casos es posible
generar el conocimiento que permite comprender lo que sucede en situaciones más complicadas.
Aunque no es el objetivo de este curso, hay que recordar que el trabajo de integrar una ecuación de
evolución no termina cuando se encuentra la solución numérica, la parte fı́sicamente más importan-
te viene después con la interpretación fı́sica del resultado obtenido y la extracción de conclusiones
que nos permitirá hacer predicciones cualitativas para casos similares sin necesidad de hacer ningún
cálculo. El objetivo en fı́sica o en ingenierı́a no es generar una solución numérica sino comprenderla,
es decir, alcanzar cierto grado de conocimiento sobre el comportamiento del sistema.
Métodos numéricos
En el cálculo simbólico se manejan de manera rutinaria objetos matemáticos cuya descripción
completa√ precisa una cantidad infinita de información, por ejemplo un simple número irracional
(como 2) tiene un número infinito de dı́gitos, una función analı́tica requiere un conjunto infinito
de valores, o de manera alternativa un conjunto infinito de coeficientes de su desarrollo en serie de
Taylor, o de Fourier. Las ecuaciones diferenciales en derivadas parciales afectan a objetos matemáti-
cos que no son nada sencillos, excepto cuando es posible generar una solución analı́tica en términos
de funciones conocidas. Cuando esto no es posible es preciso emplear un método numérico, con
el que en primer lugar aproximamos las variables dependientes por una colección finita de datos
numéricos de precisión finita (por ejemplo los valores de la función en un conjunto finito de puntos,
o unos pocos términos del desarrollo de la función en serie de Fourier), una vez que tenemos esta
aproximación, su sustitución en las ecuaciones de evolución nos proporciona las correspondientes
ecuaciones algebraicas (o trascendentes), que ya son susceptibles de ser resueltas por los métodos
estándar de cálculo (por ejemplo inversión de matrices para resolver sistemas lineales, o el método
de Newton-Raphson para resolver ecuaciones no lineales), al menos de manera aproximada, ya que
cualquier cálculo numérico nos limita necesariamente a manejar números de precisión finita, es
decir, en última instancia números racionales.
A pesar de este cúmulo de aproximaciones normalmente es posible acotar el error que se está co-
metiendo, de tal forma que podemos generar soluciones numéricas muy precisas. Gracias a la po-
tencia computacional de que se dispone en la actualidad, resolver por métodos numéricos una EDP
bien planteada es algo rutinario. En este sentido, los métodos espectrales objeto de este curso son
algunos de los métodos más empleados, debido a su alta precisión y estabilidad.
Dependiendo de cómo definamos este conjunto finito de datos en el que se va a basar nuestra
viii PREFACIO
aproximación existen dos grandes familias de métodos numéricos clásicos para resolver ecuaciones
diferenciales en derivadas parciales: los métodos de diferencias finitas [25] y los métodos espectrales
[12]. Aparte de estas dos familias también están los métodos estocásticos (como el método de
Monte Carlo), que resulta ventajoso respecto de los anteriores cuando el número de variables
independientes es grande (normalmente para 5 o más variables independientes).
Diferencias finitas
Básicamente, los métodos de diferencias finitas consisten en discretizar las variables indepen-
dientes con un determinado paso, generando un mallado, de tal forma que las variables dependientes
quedan descritas por sus valores en los nodos del mallado y las derivadas quedan aproximadas por
las correspondientes diferencias finitas. En última instancia la justificación matemática de este
método reside en la teorı́a de desarrollos en serie de Taylor para funciones analı́ticas. Los métodos
de diferencias finitas son fáciles de comprender y de implementar, y son eficientes en su dominio de
aplicabilidad. El problema de estos métodos es que en algunos casos es necesario emplear discretiza-
ciones extremadamente finas, haciendo que sean computacionalmente costosos. La gran ventaja de
estos métodos, aparte de su facilidad de implementación, es que se adaptan sin demasiada dificultad
a geometrı́as complicadas y a la presencia de fuertes gradientes.
Métodos espectrales
En los métodos espectrales se considera a las variables dependientes del problema como elemen-
tos de un determinado espacio funcional de dimensión infinita, y el conjunto finito de datos con el
que aproximamos estas funciones se define como su proyección sobre un subconjunto de dimensión
finita del espacio funcional completo. De esta forma obtenemos una colección finita de coeficientes
del desarrollo de la función de partida en términos de una determinada base truncada.
El ejemplo más sencillo de método espectral consiste en aproximar una determinada función
por medio de su desarrollo en serie de Fourier hasta un determinado orden finito (asumiendo que
los coeficientes de orden superior son nulos). Este ejemplo nos muestra una diferencia fundamental
entre los métodos espectrales y los de diferencias finitas. En los métodos espectrales los valores
de los coeficientes del desarrollo empleado están condicionados por los valores de la función en
todo su intervalo de definición, mientras que los valores en los que se basan las aproximaciones de
diferencias finitas sólo dependen del valor de la función en el punto considerado. Por este motivo
se dice que los métodos espectrales aproximan la solución de manera global, mientras que los de
diferencias finitas lo hacen de manera local. Como consecuencia los métodos espectrales son más
estables que los métodos de diferencias finitas para aproximar funciones suaves, pero tienen peor
comportamiento en el caso de funciones con variaciones muy fuertes, o con discontinuidades.
Los métodos espectrales se basan en sustituir la dependencia respecto de algunas variables por
un desarrollo en términos de una determinada base truncada del espacio funcional (generalmente
de Hilbert) al que pertenece la solución del problema. La gran ventaja de los métodos espectrales
sobre los de diferencias finitas es que son muy estables y precisos. Gracias a esto es posible obtener
soluciones cualitativas por medio de desarrollos espectrales con muy pocos términos (entre 3 y 5)
con un coste computacional realmente bajo. En algunos casos es posible obtener soluciones aproxi-
madas de baja calidad (pero que también proporcionan información valiosa) de manera analı́tica.
Esta versatilidad contrasta con la rigidez de los métodos basados en diferencias finitas, que no
permiten extraer ninguna información hasta que el mallado es lo suficientemente fino, en cuyo caso
la solución que se encuentra es una buena aproximación pero el coste computacional es alto. Por
ix
otra parte, si lo que nos interesa es aproximar la solución buscada con gran precisión, entonces
el coste computacional del método espectral es comparable al basado en diferencias finitas, pero
si realizamos una buena elección para la base espectral la calidad de la solución puede ser mucho
mejor gracias al fenómeno de convergencia exponencial. En cualquier caso los métodos espectrales
permiten tener un mayor control sobre el error y están mejor fundamentados desde el punto de
vista matemático que los de diferencias finitas.
Las limitaciones de los métodos espectrales son principalmente la dificultad que tiene su apli-
cación en casos de geometrı́a complicada y la dificultad introducida por la presencia de gradientes
intensos y/o de discontinuidades.
En la aplicación de los métodos espectrales para resolver problemas de evolución, lo más habitual
es aproximar la dependencia respecto de las variables espaciales de la solución por desarrollos
espectrales, quedando los coeficientes de ese desarrollo como funciones del tiempo. Cuando se
emplean desarrollos espectrales en más de una dimensión espacial la base espectral se suele construir
como el producto tensorial de las bases espectrales empleadas en cada una de las direcciones, lo cual
implica que (en términos de las variables espaciales empleadas) el dominio espacial es un hipercubo.
Como consecuencia, si la geometrı́a del problema es complicada resulta imposible aplicar un
método espectral, en ese caso la única forma de resolver el problema es con diferencias finitas,
empleando mallados desestructurados en el caso de geometrı́as realmente muy complicadas (como
por ejemplo el flujo en torno a los motores de un avión).
Si la geometrı́a no es demasiado complicada el Método de Descomposición del Dominio permite
resolver el problema dividiendo el dominio original en trozos (subdominios) de geometrı́a sencilla, e
introduciendo posteriormente un desarrollo espectral independiente en cada uno de los subdominios.
Este método también se aplica con éxito para resolver casos con discontinuidades y/o gradientes
intensos, dividiendo el dominio en subdominios donde la solución es suficientemente suave. En este
caso es frecuente combinar la descomposición del dominio con cambios de variable o mappings que
proporcionan mayor resolución espacial en aquellas zonas donde es precisa.
El Método de Descomposición del Dominio establece también un puente entre los métodos de
diferencias finitas y los métodos espectrales, aparentemente independientes. En efecto, es fácil darse
cuenta de que resolver un problema en un dominio determinado por el método de diferencias finitas
usando un mallado muy fino es equivalente a introducir una descomposición del dominio muy fina
y posteriormente emplear en cada subdominio un desarrollo espectral de orden muy bajo (por
medio de un polinomio de orden 1 o, a lo sumo, cuadrático). En el otro extremo, la aplicación de
un método espectral puro consiste en no subdividir el dominio espacial de partida y aproximar la
solución por medio de un desarrollo espectral de orden muy alto (por ejemplo por un polinomio de
grado alto).
La opción intermedia entre estos dos extremos es el Método de Descomposición del Dominio, que
consiste en considerar una subdivisión del dominio intermedia e introducir un desarrollo espectral
de orden intermedio en cada uno de los subdominios. El Método de Descomposición del Dominio
es la forma óptima de resolver problemas sobre dominios espaciales extensos, ya que por un lado
hereda las ventajas de ambos métodos, por otro lado la acumulación de errores de redondeo hace
que sea más eficiente esta solución intermedia que aumentar infinitamente el orden del desarrollo
espectral o que subdividir infinitamente el mallado para las diferencias finitas, y por último su
propia estructura hace que sea fácilmente paralelizable.
x PREFACIO
Guı́a de estudio
Agradecimientos
Nos gustarı́a dejar constancia de nuestro agradecimiento hacia la Free Software Foundation y
el proyecto GNU por poner a nuestra disposición herramientas informáticas gratuitas de verdadera
calidad. Este documento ha sido elaborado ı́ntegramente con el procesador de textos LATEX 2ε , los
esquemas que aparecen en las figuras se han llevado a cabo o bien en LATEX o bien con el programa
de diseño xfig, ambos programas van incluidos en cualquier distribución del sistema operativo
gratuito Linux.
Capı́tulo 1
El objetivo de esta parte del curso es presentar diversos métodos numéricos basados en desa-
rrollos truncados en términos de bases de espacios de Hilbert, aplicables para resolver de manera
aproximada ecuaciones diferenciales en derivadas parciales, este tipo de métodos numéricos se de-
nominan métodos espectrales. En este tema presentaremos una introducción general del curso.
El problema que queremos resolver inicialmente es una EDP totalmente general en 1 + 1 di-
mensiones, que podemos denotar por
Df = 0 (1.1)
donde f = f (x, t) y el operador D es un operador diferencial respecto de las variables independien-
tes, que llamaremos x y t. En principio supondremos que D es un operador diferencial de orden no
superior a dos (aunque esta restricción no es necesaria) y supondremos que puede ser un operador
no lineal ( )
∂f ∂f ∂ 2 f ∂ 2 f
D = D x, t, f, , , , ,... (1.2)
∂x ∂t ∂x2 ∂t2
Posteriormente veremos cómo aplicar esta estrategia en problemas de mayor dimensionalidad.
Un ejemplo del tipo de ecuaciones diferenciales no lineales en las que estamos interesados es la
ecuación del calor con difusividad térmica α dependiente de la temperatura T
∂T ∂2T
= α(T ) 2 (1.3)
∂t ∂x
otro ejemplo de ecuación no lineal serı́a la ecuación de ondas con velocidad de propagación c
dependiente de la amplitud f
∂2f 2
2∂ f
= c(f ) (1.4)
∂t2 ∂x2
o la ecuación de Navier-Stokes.
Por supuesto también supondremos que la EDP considerada tiene definidas las condiciones de
contorno adecuadas como para que el problema esté bien definido. En este sentido, en general
supondremos que el problema Ec. (1.1) es un problema de condiciones de contorno respecto de la
variable x, de tal forma que el problema está planteado en el intervalo x ∈ [a, b] (con a < b) y
en los lı́mites del intervalo se aplican las correspondientes condiciones de contorno, que podrán ser
de cualquier tipo: lineales o no lineales, homogéneas o no homogéneas, separables o no separables,
Dirichlet, Neumannm, mixtas, etc. Más adelante veremos con algo más de detalle esta cuestión.
1
2 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES
Este tipo de desarrollos se denominan desarrollos espectrales, cada uno de los sumados que aparece
en el lado derecho de Ec. (1.5) es una componente espectral del desarrollo, y con frecuencia nos
referiremos a la base φi (x) como base espectral.
Para que este tipo de desarrollo sea aplicable es necesario que la función f (x, t) que estamos
buscando (la solución del problema Ec. (1.1)) pertenezca al espacio de Hilbert engendrado por
la base φi (x). En general la hipótesis de partida de cualquier método espectral es que la función
que estamos buscando pertenece a un cierto espacio de Hilbert, y por tanto es expresable como
combinación lineal de cualquier base completa de dicho espacio funcional. Normalmente existen
argumentos fı́sicos que justifican esta hipótesis; un caso habitual es que la norma al cuadrado de la
función f (x, t) como elemento de un cierto espacio funcional esté relacionada con alguna variable
fı́sica del sistema (p. ej. la energı́a total del sistema) que necesariamente debe estar acotada (la
energı́a de un sistema no puede ser infinita), lo cual garantiza que f pertenece a dicho espacio de
Hilbert. En lo sucesivo esta será nuestra hipótesis de partida.
Existen varios métodos espectrales distintos, todos ellos tienen en común el uso de un desarrollo
como el anterior para (algunas de) las variables dependientes del problema y se diferencian entre
sı́ en la forma de escoger la base espectral (es decir, el conjunto de funciones φi (x) empleado en el
desarrollo) y la forma de calcular los coeficientes del desarrollo (es decir, las funciones ci (t)).
1.2. APROXIMACIÓN POR MÍNIMOS CUADRADOS 3
Una cuestión que hemos dejado sin indicar en el anterior desarrollo es el número de componen-
tes espectrales empleado (el número de funciones φi (x)). Los espacios funcionales, en particular
los espacios de Hilbert, tienen infinitas dimensiones, de modo que cualquier base completa tiene
necesariamente infinitos elementos, que en principio habrı́a que incluir en el desarrollo. Formalmen-
te sólo es posible manejar desarrollos con infinitos términos si la ecuación que queremos resolver
y sus condiciones de contorno son lineales y separables. En ese caso, tomando como base para el
desarrollo a la base de autofunciones del problema considerado podemos ir construyendo la solución
por medio del conocido método de separación de variables. El método de separación de variables no
es aplicable en problemas no lineales, sin embargo, aunque el problema sea no lineal, si la solución
pertenece a un cierto espacio de Hilbert esta será expresable como combinación lineal de cualquier
base completa de dicho espacio. Como numéricamente no resulta posible manejar desarrollos con
infinitas componentes, todos los métodos espectrales se basan en considerar desarrollos truncados,
con un cierto número finito (N ) de términos. En principio parece razonable suponer que si el núme-
ro de términos incluidos en el desarrollo es suficientemente alto, entonces el desarrollo truncado
proporcionará una buena aproximación a la función buscada, lo cual quedará patente cuando al au-
mentar el número de términos incluidos en nuestro desarrollo no observemos variaciones apreciables
en la solución (cuando sucede esto se dice que el desarrollo ha convergido a la solución buscada).
El hecho de considerar un número finito de términos en el desarrollo de f hace que los métodos
espectrales sean métodos numéricos aproximados. La gran ventaja de los métodos espectrales es
su estabilidad, precisión y elevada velocidad de convergencia, es decir, la posibilidad de obtener
aproximaciones muy precisas con un número no demasiado elevado de componentes espectrales. El
buen funcionamiento de los métodos espectrales está condicionado por diversos factores que iremos
viendo más adelante, entre los que destaca la adecuada elección de la base espectral y la presencia
o no de singularidades en la función que queremos aproximar y sus derivadas.
A lo largo de este curso veremos en primer lugar los distintos métodos espectrales que se obtienen
dependiendo de
Posteriormente veremos cómo se generalizan estos métodos para problemas en más de 1 + 1 di-
mensiones y cuál es la relación existente entre los métodos espectrales y otros métodos habituales
(como p. ej. los basados en diferencias finitas).
una posible medida de este error es la norma de esta diferencia al cuadrado (elevamos al cuadrado
para evitar la posible cancelación mútua de errores de signo opuesto). Suponemos por tanto que
estamos en el contexto del espacio de Hilbert de las funciones de cuadrado integrable sobre un
cierto intervalo [a, b] de la recta real, donde hemos definido el producto escalar de acuerdo a
∫ b
(f, g) ≡ w(x) f (x) g(x) dx (1.8)
a
donde w(x) > 0 es una cierta función peso y donde f (x) es el complejo conjugado de f (x) (en
general consideraremos sólo funciones reales, de modo que omitiremos esta operación). Una medida
del error de nuestro desarrollo truncado es por tanto la norma al cuadrado de la diferencia
∫ b
∥E∥ =
2
w(x) (f (x) − fN (x))2 dx (1.9)
a
∂∥E∥2
= 0, k = 1, . . . , N (1.10)
∂ck
Operando es inmediato verificar que
1 ∂∥E∥2 ∑
N
= ci (φk , φi ) − (φk , f ) (1.11)
2 ∂ck
i=1
lo cual, sustituyendo en Ec. (1.10), genera un conjunto de N ecuaciones lineales que determinan los
coeficientes ck . El caso más habitual (y más sencillo) es aquel en que la base empleada es ortonormal
respecto del producto escalar Ec. (1.8)
en ese caso los coeficientes que minimizan el error (es decir, los ck que verifican las condiciones Ec.
(1.10)) están dados por la proyeccción ortogonal de la función f sobre cada una de las componentes
espectrales incluidas en el desarrollo, es decir
ci = (φi , f ) , i = 1, . . . , N (1.13)
(φi , E) = 0, i = 1, . . . , N (1.14)
1.3. REPASO DE TEORÍA DE LA APROXIMACIÓN 5
tal y como puede comprobarse a partir de Ec. (1.7) y las relaciones de ortogonalidad Ec. (1.12).
A modo de resumen, en esta introducción hemos visto que los métodos espectrales se basan en
desarrollar la dependencia de la solución buscada (f ) respecto de algunas variables independientes
(x) por medio de desarrollos truncados en términos de una base completa de un cierto espacio de
Hilbert, posteriormente los coeficientes de este desarrollo se calculan aplicando mı́nimos cuadrados
(Ec. (1.14)). De esta forma el método consiste en aproximar la dependencia respecto de x de f (x, t)
por la proyección de f en un cierto subespacio con un número finito (N ) de dimensiones, quedando
la dependencia respecto a la variable t transferida a los coeficientes del desarrollo. Los distintos
métodos espectrales que existen se diferencian entre sı́ en el producto escalar empleado para realizar
esta proyección ortogonal. En este curso veremos los dos métodos espectrales más habituales: el
método de Galerkin y el método de colocación ortogonal.
Convergencia algebraica
Existe un mı́nimo número de términos n0 tal que para n > n0 los coeficientes del desarrollo
tienden a cero cuando n → ∞ de acuerdo a una ley de potencias
|cn | ∼ n−k
donde el exponente k es un cierto número positivo. En este caso se dice que para n > n0 hay
convergencia algebraica de orden k. Por supuesto, cuanto mayor sea k mejor es la calidad del
desarrollo, pero de todas formas la convergencia algebraica no es el caso óptimo.
Convergencia exponencial
Existe un mı́nimo número de términos n0 tal que para n > n0 los coeficientes del desarrollo
tienden a cero cuando n → ∞ más deprisa que n−k para cualquier k finito. La convergencia
exponencial corresponde, por tanto, a convergencia algebraica de orden infinito.
Orden de convergencia
6 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES
De manera más precisa, un desarrollo tiene convergencia algebraica de orden k cuando existe
un exponente k > 0 tal que
lı́m |cn |nk < ∞
n→∞
en ese caso se define el orden de la convergencia como el mayor k para el que se cumple la
relación anterior. Cuando la relación anterior se cumple para cualquier valor de k finito se
dice que el desarrollo tiene convergencia exponencial.
Es importante darse cuenta de que las definiciones anteriores aluden al comportamiento asintótico
de los coeficientes del desarrollo (es decir al lı́mite n → ∞). El comportamiento de los coeficientes
cn con n pequeño no es indicativo de la velocidad de convergencia.
El objetivo de los métodos espectrales es valerse de desarrollos con convergencia exponencial.
Cuando esto es posible los métodos espectrales proporcionan una aproximación de gran calidad con
un número de términos no demasiado elevado, lo que en la práctica se traduce en que el desarrollo
obtenido con un número de términos del orden de algunas decenas es totalmente indistinguible de
la solución buscada.
En principio esta pregunta no puede responderse de manera general, los resultados pueden ser muy
distintos dependiendo de la función que intentemos aproximar y de la base empleada. De todas
formas, para fijar ideas diremos que “en la mayorı́a de los casos” se manejan números N entre 10
y 30 para intervalos acotados y del orden del doble para intervalos no acotados. La convergencia
exponencial sólo es posible si la función que queremos aproximar es suficientemente suave, es decir,
si tanto f como sus derivadas de cualquier orden no tienen singularidades. Suponiendo que se
cumple esta condición, la posibilidad de tener un desarrollo con convergencia exponencial depende
fuertemente de que hagamos una elección adecuada para la base espectral. Existen dos factores
fundamentales que determinan la base a emplear:
Dependiendo del intervalo [a, b] considerado las posibilidades son las siguientes:
Dependiendo de las condiciones de contorno que debemos imponer a f las posibilidades son:
La función f (x) que desarrollamos debe ser suave, es decir, tanto f (x) como sus derivadas de
cualquier orden deben estar exentas de singularidades.
En general la presencia de discontinuidades en una función, o en cualquiera de sus derivadas,
limita el orden de convergencia a una convergencia algebraica (en el mejor de los casos), de
modo que cuanto más bajo sea el orden de la derivada en la que aparecen las discontinuidades
tanto menor será el orden de la convergencia algebraica. Para obtener una convergencia
exponencial es necesario que la función f (x) tenga infinitas derivadas continuas, en cuyo caso
se dice que f es de clase C ∞ .
La base espectral empleada debe ser compatible con las condiciones de contorno del problema.
Cuando se emplea una base espectral incompatible con las condiciones de contorno del pro-
blema (en x = a, en x = b, o en ambos lı́mites), implı́citamente se está introduciendo una
discontinuidad en el correspondiente punto (x = a, x = b, o ambos), lo cual limita la velocidad
de convergencia del desarrollo a una convergencia algebraica (en el mejor de los casos).
En principio las condiciones anteriores pueden parecer demasiado exigentes, sin embargo, la con-
dición de suavidad de f (x) suele estar garantizada por el significado fı́sico de dicha función. En el
apartado siguiente revisaremos brevemente la cuestión de la compatibilidad entre la base espectral
y las condiciones de contorno del problema para el caso de desarrollos en serie de autofunciones de
problemas de Sturm-Liouville.
Este problema sólo tiene solución no trivial cuando λ es igual a alguno de los autovalores (λi )
de L, en cuyo caso la solución es la correspondiente autofunción φi (x). El carácter autoadjunto
del operador L garantiza que los autovalores son reales, en la mayorı́a de los casos el espectro
es exclusivamente discreto, lo que implica que los λi pueden ordenarse de acuerdo a λ1 < λ2 <
λ3 < . . . . El resultado de la teorı́a de Sturm-Liouville de mayor importancia para nosotros es que
el conjunto de autofunciones φi (x) es una base completa del espacio de Hilbert √ de funciones de
cuadrado integrable en [a, b] respecto del peso w(x) (o lo que es lo mismo, w(x)φi (x) es una
base completa del espacio de Hilbert de funciones de cuadrado integrable en [a, b] respecto del
peso 1). En virtud del carácter autoadjunto de L estas autofunciones son ortogonales, y siempre
pueden normalizarse convenientemente de manera que se cumpla (φi , φj ) = δij , donde el producto
escalar está definido en Ec. (1.8). Otro resultado de la teorı́a de Sturm- Liouville con consecuencias
importantes para nosotros es que puede demostrarse que cada autofunción φi tiene i − 1 ceros,
todos ellos reales, distintos, y contenidos en el intervalo abierto (a, b).
Veamos algunas de las bases espectrales más habituales, dadas por la solución de problemas de
SL en intervalos acotados y no acotados.
Base de Legendre:
Intervalo [−1, 1], p(x) = 1 − x2 , q(x) = 0, w(x) = 1.
Este caso tiene dos familias de soluciones, las funciones de Legendre de segunda especie (que
son singulares en los extremos del intervalo x = ±1) y los polinomios de Legendre, que se obtienen
imponiendo regularidad en todo el intervalo por medio de la normalización φ(1) = 1. Los autovalores
son λn = n(n + 1) y la base está dada por la familia de polinomios φn (x) = Pn (x)
P0 (x) = 1, P1 (x) = x, (n + 1)Pn+1 (x) = (2n + 1)xPn (x) − nPn−1 (x)
Base de Chebyshev:
( )1/2 ( )−1/2
Intervalo [−1, 1], p(x) = 1 − x2 , q(x) = 0, w(x) = 1 − x2 .
Los polinomios de Chebyshev cumplen la condición de normalización φ(1) = 1, son regulares
en todo el intervalo, y son la base que emplearemos con mayor frecuencia debido a que es la que
proporciona el mı́nimo error máximo local (condición minimax). Los autovalores son λn = n2 y la
base está dada por la familia de polinomios φn (x) = Tn (x)
T0 (x) = 1, T1 (x) = x, Tn+1 (x) = 2xTn (x) − Tn−1 (x)
Base de Jacobi:
Intervalo [−1, 1], p(x) = (1 − x)1+α (1 + x)1+β , q(x) = 0, w(x) = (1 − x)α (1 + x)β , α >
−1, β > −1.
Este caso engloba muchas de las bases de polinomios ortogonales habituales, como la base de
Legendre (α = 0, β = 0) o la de Chebyshev (α = β = −1/2). En este caso los autovalores son
λn = n(n + α + β + 1) y la expresión de la regla de recurrencia que define la base de polinomios de
Jacobi es algo complicada como para reproducirla aquı́.
Base de Laguerre:
Intervalo semi-acotado [0, ∞], p(x) = xe−x , q(x) = 0, w(x) = e−x .
Los autovalores son λn = n y la base de Laguerre está dada por φn = e−x/2 Ln (x), donde los
polinomios de Laguerre son
1
L0 (x) = 1, L1 (x) = 1 − x, Lk+1 (x) = ((2k + 1 − x)Lk (x) − kLk−1 (x))
k+1
Los polinomios de Laguerre son un caso particular de los polinomios asociados de Laguerre
(también llamados polinomios de Sonine), que son ortogonales en [0, ∞] respecto a la función peso
w(x) = xα e−x .
Base de Hermite:
Intervalo no acotado [−∞, +∞], p(x) = e−x , q(x) = 0, w(x) = e−x .
2 2
⋆ En un caso con condiciones de contorno generales ¿cómo podemos escoger una base que no
sea incompatible con las condiciones de contorno del problema?
Existen dos tipos de problemas de Sturm-Liouville, por un lado están los problemas de SL regulares
y por otro los problemas de SL singulares. Un problema de SL es regular si p(x) > 0 y w(x) > 0 ∀x
1.3. REPASO DE TEORÍA DE LA APROXIMACIÓN 11
en [−∞, +∞] son singulares en ambos extremos del intervalo. En cuanto a los problemas de SL
en intervalos acotados, el problema de SL relacionado con la base de Fourier es regular, mientras
que los relacionados con la base de Legendre y con la base de Chebyshev son singulares en ambos
lı́mites, ya que en esos casos se cumple p(±1) = 0. El carácter regular o singular del problema de
SL relacionado con la base de Jacobi depende de los valores de los exponentes α y β. En cuanto
al problema que da lugar a la base de Laguerre, aparte de ser singular en x = +∞ este problema
también es singular en x = 0, ya que p(x) se anula en dicho punto.
La teorı́a de Sturm-Liouville (que por limitaciones de tiempo no podemos revisar más a fondo
en este curso) establece que el comportamiento asintótico de los autovalores y autofunciones de SL
regulares en el lı́mite n → ∞ está dado por
( ∫ b√ )2 ( √
√ ∫ x w(x)
)
w(x)
λn ∼ nπ/ dx , φn (x) ∼ An sen λn dx (1.24)
a p(x) a p(x)
Por tanto si empleamos una base correspondiente a un problema de SL regular con condiciones
de contorno Dirichlet homogéneas en a y b, pero la solución f (x) buscada no se anula en alguno
de los extremos del intervalo, entonces sustituyendo Ec. (1.24) en Ec. (1.23) vemos que cn decrece
como 1/n en el lı́mite n → ∞. Esto significa que tenemos convergencia algebraica de orden 1, lo cual
es demasiado lento. Por el contrario, si f (x) cumple condiciones de contorno homogéneas en a y b
(f (a) = f (b) = 0), entonces una nueva integración por partes en Ec. (1.20) muestra que si, o bien
h(a) ̸= 0 o bien h(b) ̸= 0, entonces cn decrece como n−3 en el lı́mite n → ∞, en cuyo caso tendremos
convergencia algebraica de orden 3, pero todavı́a estamos lejos de tener convergencia exponencial.
Para obtener una convergencia algebraica de orden 4 en el caso que estamos considerando serı́a
necesario garantizar que h(a) = h(b) = 0, lo cual implica que las derivadas de orden superior de
f (x) deben cumplir ciertas condiciones de contorno adicionales.
Esta situación se repite de manera sucesiva, de tal forma que, en general, cuando se realizan
desarrollos espectrales en términos de bases definidas por problemas de Sturm-Liouville regulares,
la velocidad de convergencia será sólo algebraica a menos que la solución buscada f (x) y todas
sus (infinitas) derivadas cumplan ciertas condiciones de contorno especı́ficas en los puntos a y
b. Normalmente no será posible garantizar que f (x) y sus derivadas cumplan este conjunto de
condiciones, excepto si el problema que estamos intentando resolver cumple las mismas condiciones
de contorno que el problema de SL regular que define la base empleada. Esto sólo será posible en
casos sencillos muy concretos, como p. ej. problemas con condiciones de contorno periódicas.
Sin embargo, si p(a) = 0 entonces no necesitamos imponer ninguna condición de contorno sobre
f (x) en x = a para obtener el resultado buscado cn ≪ φ′n /λn con n → ∞. De la misma manera,
si p(x) se anula en x = b, entonces no necesitamos imponer ninguna condición de contorno sobre
f (x) en x = b. Finalmente, si p(x) se anula en ambos extremos del intervalo (p(a) = p(b) = 0)
el argumento anterior puede repetirse indefinidamente (suponiendo que f (x) sea suave), de donde
se deduce que en ese caso cn tiende a cero más rápido que cualquier potencia de 1/λn , es decir,
tenemos convergencia exponencial.
Por tanto, la velocidad de convergencia de los desarrollos espectrales basados en autofunciones
de problemas de Sturm-Liouville singulares en ambos extremos del intervalo está condicionada
solamente por las propiedades de suavidad de la función desarrollada, pero no por las condiciones
de contorno del problema. Por el contrario, en los desarrollos basados en autofunciones de problemas
de Sturm-Liouville regulares la velocidad de convergencia no depende sólo de la suavidad de f (x),
sino también de las condiciones de contorno del problema, lo cual en general, hará que sea imposible
obtener la convergencia exponencial.
1.4. BIBLIOGRAFÍA 13
La conclusión importante de este análisis es que sólo deben emplearse bases de autofunciones
de problemas de Sturm-Liouville singulares, excepto en casos muy especı́ficos, como por ejemplo
problemas con condiciones de contorno periódicas, en cuyo caso se debe emplear (obviamente) la
base de Fourier.
El fenómeno de Gibbs
Una velocidad de convergencia algebraica refleja que, o bien la función que estamos desarrollando
no es suave en algún punto, o bien que la base espectral empleada no es compatible con alguna
de las condiciones de contorno del problema, en cuyo caso el desarrollo no puede converger a la
solución buscada en el punto (x = a, x = b o ambos) donde la base espectral es incompatible
con las condiciones de contorno del problema, lo cual equivale a un comportamiento no suave
en dicho extremo del intervalo [a, b]. Esto es lo que sucede por ejemplo al desarrollar la función
f (x) = x con x ∈ [0, 2π] en términos de la base de Fourier. En este caso se observa que el desarrollo
converge a f (x) en el interior del intervalo, pero no cerca de los lı́mites, donde se aprecian fuertes
oscilaciones. Si aumentamos el número de componentes espectrales observamos que la amplitud de
estas oscilaciones no decrece, es decir, el desarrollo no está convergiendo a la solución buscada en
los extremos del intervalo.
Siempre que se intenta desarrollar una función que no es suave en términos de una base espectral
de funciones suaves se observa este tipo de oscilaciones, que se conocen como el fenómeno de
Gibbs. En la práctica es muy importante saber reconocer este tipo de comportamiento, ya que nos
indica que la función que estamos intentando aproximar no es suave, es decir, que o bien la propia
función desarrollada o bien alguna de sus derivadas tiene una discontinuidad. Cuando observemos
el fenómeno de Gibbs en alguno de los extremos del intervalo lo más probable es que hayamos hecho
una mala elección de base espectral. Por el contrario, si este fenómeno aparece en el interior del
intervalo entonces puede ser indicativo de que la función que estamos aproximando es, realmente, no
suave en algún punto del interior del intervalo. Más adelante en este curso veremos qué estrategias
pueden emplearse para resolver este tipo de problemas.
1.4. Bibliografı́a
Las notas de este tema se han tomado principalmente de
D. Gottlieb and S. A. Orszag, Numerical Analysis of Spectral Methods: Theory and Applica-
tions, Society For Industrial and Applied Mathematics (SIAM), 1977
14 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES
Capı́tulo 2
In general, spectral and pseudo-spectral methods are based on Approximation Theory [7, 8, 10]
in the context of Hilbert spaces [4, 5, 29]. For a general review on spectral and pseudo-spectral
methods see [12, 18]. For a review on these methods with applications in Chemical Engineering
see [27], and with applications in Computational Fluid Dynamics see [13, 15, 24]. The basic idea is
shared by all the spectral methods, and can be introduced by means of a general example. Let us
consider the following evolution equation in 1+1 dimensions
∂f
= H(f ) (2.1)
∂t
where the dependent variable is a function of time (t) and space (x), f = f (x, t), and where H is
an evolution operator. We will assume that H is, in principle, a time-dependent non-linear integro-
differential operator with respect to space, but that it does not involve time derivatives or integrals
( ∫ )
∂f ∂ 2 f
H = H t, x, f, , , f (x, t) dx (2.2)
∂x ∂x2
Let us assume that the former Partial Differential Equation (pde) is to be solved for t > 0 in
the spatial domain a < x < b, and that the unknown function f is square integrable in that domain
at all times ∫ b
∥f ∥2 = W (x) |f (t, x)|2 dx < ∞ ∀t > 0 (2.3)
a
with respect to a certain weight function
The set of functions that fulfill equation (2.3) form a Hilbert space, called the Lebesgue square
integrable functions space, usually noted by L2W [a, b]. The properties of Hilbert spaces are well
known, and will not be revised here. The key property of interest in spectral analysis is that any
continuous function f in L2W [a, b], with bounded total variation, is given by its expansion with
respect to any complete basis {φi }∞ 2
i=1 of LW [a, b], that is to say
∞
∑
f (x) = ci φi (x) ∀f ∈ L2W [a, b] (2.5)
i=1
15
16 CAPÍTULO 2. GALERKIN AND ORTHOGONAL COLLOCATION METHODS
The idea behind spectral methods is to use equation (2.5) to express the spatial dependence of
f in terms of a certain complete basis, while the time dependency is transferred to the coefficients
of the expansion. So far the method is exact, and can only be used if the evolution operator H is
linear and separable, in which case this leads to the usual method of “separation of variables”. In a
more general case, the former approach can still be used (as an approximated method) by means
of a truncation in the expansion, at a certain finite number (N ) of spectral components
∞
∑ ∑
N
f (x, t) = ci (t) φi (x) ≃ fN (t, x) = ci (t) φi (x) (2.8)
i=1 i=1
If N is large enough, it is reasonable to expect that the former truncated expansion will be
a good approximation. In principle, any complete basis set of L2W [a, b] will lead to a convergent
expansion. However, the convergence will be much faster if a good choice of basis is made. The
Approximation Theory provides the conditions needed for the former expansion to have exponential
convergence rate, in which case the error decreases to zero as N increases faster than N −p for any
p > 0 [12, 18]. The above mentioned conditions relate the choice of basis to the boundary conditions
of the problem, and impose smoothness restrictions on the function f and its derivatives over the
interval [a, b]. When these conditions are met convergence rates are very high, enabling spectral
methods to produce qualitative results with a number of components as low as N ∼ 3 − −5, and
very accurate results can be obtained with N in the range of 10 − −15 (a factor 2 applies in this
estimation if the spatial domain is unbounded).
The choice of basis is a crucial issue in spectral methods, which will not be discussed here in
detail [12]. To summarize, the choice of basis is in general dictated by the boundary conditions.
Whenever it is possible to find a complete basis in which all the elements fulfill the boundary
conditions of the problem, that is the best choice (for instance, the Fourier basis is the best choice if
periodic boundary conditions apply). However, in most cases in engineering the boundary conditions
are time dependent variables that have to be solved as a part of the problem, and a basis that fulfills
them at all times can not be found in an easy way. In that case, without additional information
about the shape of f , the best choice is the basis given by the Chebyshev polynomials, assuming
that the spatial domain of interest is finite. In the case of a semi-infinity (respectively infinity)
domain, the Laguerre (respectively Hermite) basis is a possible choice, although a mapping of the
initial interval to [−1, 1] and then use the Chebyshev basis is also a possibility. The basis sets
frequently used in spectral theory are given by the eigenfunctions of a Sturm-Liouville problem [4].
The basis sets that can be used independently of the type of boundary conditions that apply (as
for instance Chebyshev, Laguerre and Hermite) have in common that they are the eigenfunctions
of a singular Sturm-Liouville problem [18]. The Chebyshev basis has the particular property of
minimizing the maximal local error.
2.1. GALERKIN METHOD 17
Once a basis has been chosen, by differentiating and integrating with respect to x the former
expansion (equation (2.8)), one may derive rules to compute the required spatial derivatives and
integrals in terms of the coefficients of the spectral expansion ci (t)
∂f ∑
N
≃ ci (t) φ′i (x)
∂x
i=1
∂2f ∑
N
≃ ci (t) φ′′i (x)
∂x2
i=1
∫ x ∑N ∫ x
k(x′ ) f (t, x′ ) dx′ ≃ ci (t) k(x′ ) φi (x′ ) dx′ (2.9)
a i=1 a
So far all the spectral methods are alike. The difference between them arises in the way each
one generates the evolution equations needed to calculate the coefficients of the spectral expansion
as functions of time. In all the spectral methods this is done by minimizing the error (or residual)
EN , defined as
∂fN
EN (t, x) = − H (fN ) (2.10)
∂t
which is produced as a consequence of the truncation in the expansion of f . For this reason spectral
methods are also called Methods of Weighted Residuals. Each spectral method has a particular way
to accomplish the minimization of the residual EN , in the next two sections the two most widely
used spectral methods (Galerkin and Orthogonal Collocation) will be introduced, together with
the Tau method for the boundary conditions.
(φi , EN ) = 0, i = 1, . . . , N (2.11)
Thus, the evolution equations of the coefficients of the truncated expansion of f are given by the
spectral projection of the evolution equation (2.1) over the truncated basis
( )
∂fN
φi , = (φi , H(fN )) , i = 1, . . . , N (2.12)
∂t
The initial conditions needed to integrate the former system of N Ordinary Differential Equations
(odes) are determined by inserting the initial conditions of f in the expansion (equation (2.8)) and
projecting onto each basis element. In the cases in which it can be applied, the Galerkin method
exhibits very fast convergence as N increases.
The justification of the Galerkin method comes from the fact that the former evolution equations
(2.12) minimize the norm of the residual EN as a function of time (∥EN ∥2 = (EN , EN )). In this way
18 CAPÍTULO 2. GALERKIN AND ORTHOGONAL COLLOCATION METHODS
the Galerkin method provides the least-squares approximation of f in the finite-dimensional sub-
space spanned by the truncated basis used. Hence, the Galerkin method is, in this way, the optimal
choice, specially for linear problems. However, when applied to nonlinear problems the spectral
projection of the nonlinear terms of H may produce an amplification of the residual, and in that
case the method can exhibit slow convergence or even no convergence at all. Besides the difficulties
that arise in nonlinear problems, the spectral projection of the evolution operator H involves the
calculation of several integrals, which, in the most general case, will have to be performed by means
of a quadrature formula at every time step, introducing an additional computational load.
where {xi }N
i=1 are the abscissae (a < xi < b) and {Wi }i=1 are the weights (Wi > 0) of the quadrature
N
formula.
It can be shown that Orthogonal Collocation is equivalent to Galerkin with the substitution
(f, g) → ⟨f, g⟩ (2.15)
Thus, Orthogonal Collocation also provides the least-squares approximation of f in the finite-
dimensional space spanned by the basis, but with the integrals approximated by the quadrature
formula associated to the chosen basis.
According to the theory of Gaussian Quadratures, once the interval [a, b] and the weight function
(W = W (x)) have been chosen, the abscissae of the best quadrature formula are given by the N
roots of the basis element φN +1 (where the set {φi }N 2
i=1 is orthogonal in LW [a, b])
φN +1 (xi ) = 0, i = 1, . . . , N (2.16)
2.2. ORTHOGONAL COLLOCATION METHOD 19
and the weights can be easily found taking into account that the former quadrature formula is
exact for all polynomials of degree less than or equal to 2N − 1 (note that in general Wi ̸= W (xi )).
In the Orthogonal Collocation Method the evolution equations of the coefficients ci (t) are ob-
tained by imposing that the norm of the residual is zero with respect to the former quadrature
formula, which is accomplished, simply, if the residual is zero at the abscissae of the quadrature
formula
EN (t, xi ) = 0, i = 1, . . . , N (2.17)
Hence, in the ocm the evolution equations of the coefficients of the truncated expansion of f
are given by the initial evolution equation evaluated at the abscissae of the quadrature formula
∂f
= H(f )|x=xi i = 1, . . . , N (2.18)
∂t x=xi
The initial conditions needed to integrate this system of odes are directly given by the initial
conditions of f in equation (2.1).
The Orthogonal Collocation Method is considerably easier to implement than the Galerkin
method, and it is also less computationally demanding, since it does not involve the calculation
of spectral projections of the evolution equation. On the other hand, because the nonlinearities
of H are evaluated locally in the evolution equations (2.18), the Orthogonal Collocation Method
is specially well suited for nonlinear problems, where it has proved to be a very powerful tool. In
the cases where both methods can be applied, it has been seen that the convergence rate of the
Orthogonal Collocation Method is comparable to that of the Galerkin method. The former reasons
lead us to consider ocm as the preferred spectral method for nonlinear problems.
The starting point is the spectral truncated expansion of f with respect to a given set that is
orthonormal in L2W [a, b]
∑
N
f (x, t) = ci (t) φi (x) (2.19)
i=1
According to equation (2.18) we are only interested in the values of f at a given set of abscissae.
These values are given by
∑
N
f (xj , t) = ci (t) φi (xj ), j = 1, . . . , N (2.20)
i=1
If we define f and c as the vectors with components fi = f (xi , t) and ci (t) respectively, and φ as
the matrix with components φij = φj (xi ), the former expression can be written in matrix form as
f = φc (2.21)
∑
N
( )
ci (t) = φ−1 ij
f (xj , t) (2.22)
j=1
∑
N ∑
N
f (x, t) = f (xi , t) ϕi (x) = fi (t) ϕi (x) (2.23)
i=1 i=1
where fi (t) = f (xi , t), and where the new basis functions {ϕj }N
j=1 are given by
∑
N
( )
ϕj (x) = φ−1 ij
φi (x) (2.24)
i=1
In practice one does not need to perform explicitly the former change of basis, since the functions
{ϕi }N
i=1 are known beforehand. Taking into account that the new functions satisfy
and that, if the functions φi are polynomials, then the new functions ϕi are also polynomials, it
is clear that ϕi are the Lagrange interpolation polynomials with interpolation nodes given by the
abscissae xi
∏N
x − xi
ϕj (x) = , j = 1, . . . , N (2.26)
i=1
xj − xi
i̸=j
It is interesting to point out that, while the initial set of functions φi were orthogonal with
respect to the scalar product defined by integration, the new set ϕi are orthogonal with respect to
the scalar product defined by the quadrature formula
⟨ϕi , ϕj ⟩
(φi , φj ) = = δij (2.27)
Wi
2.3. APPLICATION IN HIGHER DIMENSIONS, COMPLEX GEOMETRIES, AND PRESENCE OF LARGE
The best way to implement the Orthogonal Collocation Method is, hence, by means of Lagrange
interpolation with nodes given by the set of abscissae of the (Gaussian, Lobatto or Radau) qua-
drature formula with weight function W in [a, b]. Inserting the expansion given in equation (2.23)
in the evolution equations (2.18) we find
dfi
= H(f )|x=xi i = 1, . . . , N (2.28)
dt
where the left hand side is completely uncoupled. Implemented this way, the Orthogonal Collocation
Method is sometimes considered as a pseudo-spectral method, because the problem is solved in terms
of the values of f in physical space, rather than in Fourier space.
The spatial derivatives and integrals that appear in the operator H can be calculated by means
of the expansion equation (2.23). However, since we are only interested in the values of these
derivatives and integrals at the given abscissae, these operations can be written in terms of matrix
multiplication. Defining the derivative matrices D(n) by
(n) dn ϕj
Dij = (2.29)
dxn x=xi
we find that
∂ n f ∑
N
(n)
= Dij fj (t) (2.30)
∂xn x=xi
j=1
we find
∫ xi ∑
N
K(x) f (x, t) dx = S(K)ij fj (t) (2.32)
a j=1
In the former relations the derivation matrices are time independent (because the basis functions,
the abscissae and the weights are all of them time independent), and can be precalculated easily,
once and for all. Similarly the integration matrix S(K) can be easily precalculated for any time
independent kernel of interest.
As a consequence of the former relations, it is clear that any spatial derivation or integration
that appears on the operator H couples the coefficients fi (t) according to the corresponding matrix.
However, because the nonlinearities of H are evaluated on equation (2.28) locally, there is no
extra source of error or computational load in the nonlinear terms, making this method specially
appropriate for nonlinear problems.
can be generated by tensor product of the basis of the spaces L2W [ai , bi ]. Thus, in an evolution
problem in 3+1 dimensions, for instance, the spatial dependence of f can be expanded as
∞ ∑
∑ ∞ ∑
∞
f (x, y, z, t) = cijk (t) φ̄i (x) φ̃j (y) φ̂k (z) (2.34)
i=1 j=1 k=1
where the individual basis for each dimension are dictated by the corresponding boundary condi-
tions and, in general, will not be the same, nor the truncation number in each dimension (Nx , Ny
and Nz ), which will be dictated by the accuracy needed in each direction.
Although the number of components grows with the dimensions of the space as N n , the limita-
tion to apply the former scheme is not the number of dimensions, but the geometry of the domain
of interest, besides the smoothness conditions imposed by the spectral expansion on the dependent
variables. In general the spectral methods can only be applied in domains of simple geometry, which
in higher dimensions is an important limitation. In cases of not too complicated geometry there
are two strategies to overcome this limitation, namely the Domain Decomposition Method and the
use of mappings.
In the Domain Decomposition Method the original spatial domain, of irregular shape, is divided
into pieces of regular shape, where a basis can be easily defined by tensor product. Then, the
spectral expansion is performed independently in each sub-domain, and the evolution is calculated
introducing supplementary boundary conditions (usually continuity of fields and fluxes) at the
boundaries between sub-domains. In the strategy based on mappings, a mapping is defined to
transform the spatial domain of the original variables into a regular domain in terms of some new
variables. Once this is done, the spectral expansion is introduced in terms of the new variables.
Besides solving the problems derived from the geometry in higher dimensions, these two methods
are also used in problems in one spatial dimension to achieve more spatial resolution in special
regions, where the dependent variable can experience large variations. The Domain Decomposition
Method, in particular, is the method to use if the function under consideration (or its derivatives)
is discontinuous at a certain point, which is of great interest some areas as Fluid Mechanics or
Aerosol Science for instance.
Bibliografı́a
En este apartado se incluye la lista de referencias consultadas para elaborar estos apuntes.
Algunas de estas referencias se mencionan en el texto y pueden consultarse como bibliografı́a
complementaria avanzada de los temas en que se mencionan, las restantes se citan para dar el
debido crédito a todas las fuentes consultadas.
Análisis funcional
[1] Abellanas, L. y A. Galindo: Espacios de Hilbert. Eudema, Madrid, primera ed., 1987.
[2] Apostol, T. M.: Análisis Matemático. Reverté, Barcelona, segunda ed., 2002.
[3] Bombal, F.: Los Orı́genes del Análisis Funcional. En Historia de la Matemática en el Siglo
XIX, vol. 35-36. Real Academia de Ciencias de Madrid, 1994.
[4] Courant, R. and D. Hilbert: Methods of Mathematical Physics, vol. 1. Wiley, New York,
first ed., 1994.
[5] Dieudonne, J.: Foundations of Modern Analysis. Academic Press, New York, third ed., 1968.
[6] Escardó, E. L.: Análisis Matemático II, vol. 2. Facultad de Ciencias Universidad Nacional de
Educación a Distancia, Madrid, primera ed., 2001.
[7] Szego, G.: Orthogonal Polynomials. American Mathematical Society, eleventh ed., 2003.
[8] Timan, A. F.: Theory of Approximation of Functions of a Real Variable. Dover, 1994.
[10] Zeidler, E.: Applied Functional Analysis: Applications to Mathematical Physics. Springer
Verlag, 1995.
Métodos Numéricos
[11] Barrett, R. et al.: Templates for the Solution of Linear Systems: Building Blocks for Iterative
Methods, 2nd Edition. SIAM, Philadelphia, PA, first ed., 1994. http://netlib2.cs.utk.
edu/linalg/html_templates/Templates.html.
23
24 BIBLIOGRAFÍA
[12] Boyd, J. P.: Chebyshev and Fourier Spectral Methods. Dover, New York, second ed., 2000.
http://www-personal.engin.umich.edu/~jpboyd/BOOK_Spectral2000.html.
[13] Canuto, C. et al.: Spectral Methods in Fluid Dynamics. Springer Verlag, Berlin and New York,
second ed., 1988.
[14] Ferziger, J. H. and M. Peric: Computational Methods for Fluid Dynamics. Springer Verlag,
2001.
[15] Finlayson, B. A.: The Method of Weighted Residuals and Variational Principles. With Appli-
cation in Fluid Mechanics, Heat and Mass Transfer. Academic Press, 1972.
[16] Fletcher, C. A. J.: Computational Techniques for Fluid Dynamics: Fundamental and General
Techniques, vol. 1. Springer Verlag, second ed., 1991.
[17] Fletcher, C. A. J.: Computational Techniques for Fluid Dynamics: Specific Techniques for
Different Flow Categories, vol. 2. Springer Verlag, second ed., 1991.
[18] Gottlieb, D. and S. A. Orszag: Numerical Analysis of Spectral Methods. Theory and Applica-
tions. Society for Industrial and Applied Mathematics, 1977.
[19] Hildebrand, F. B.: Introduction to Numerical Analysis. Dover, New York, second ed., 1987.
[20] Hirsch, C.: Numerical Computation of Internal and External Flows: Computational Methods
for Inviscid and Viscous Flows, vol. 2. Wiley, 1989.
[21] Hirsch, C.: Numerical Computation of Internal and External Flows: Fundamentals of Numer-
ical Discretization, vol. 1. Wiley, 1989.
[22] Peyret, R. and T. D. Taylor: Computational Methods for Fluid Flow. Springer Verlag, sec-
ond ed., 1985.
[23] Pozrikidis, C.: Fluid Dynamics: Theory, Computation, and Numerical Simulation. Kluwer,
2001.
[25] Smith, G. D.: Numerical Solution of Partial Differential Equations: Finite Difference Methods.
Oxford University Press, third ed., 1986.
[26] Villadsen, J.: Selected approximation methods for chemical engineering problems. Instituttet
For Kemiteknik, 1970.
Ecuaciones Diferenciales
[28] Boyce, W. E. and R. C. DiPrima: Elementary Differential Equations and Boundary Value
Problems. Wiley, sixth ed., 1996.
[29] Courant, R. and D. Hilbert: Methods of Mathematical Physics, vol. 2. Wiley, New York,
first ed., 1994.
[31] Garabedian, P. R.: Partial Differential Equations. American Mathematical Society, 1999.
[32] Rhee, H.-K., R. Aris, and N. R. Amundson: First-Order Differential Equations: Theory and
Application of Hyperbolic Systems of Quasilinear Equations, vol. 2. Dover, 2001.
[33] Rhee, H.-K., R. Aris, and N. R. Amundson: First-Order Differential Equations: Theory and
Applications of Single Equations, vol. 1. Dover, 2001.
[34] Stakgold, I.: Green’s Functions and Boundary Value Problems. Wiley, second ed., 1997.
[35] Stephenson, G.: An Introduction To Partial Differential Equations For Science Students. Long-
man, 1970.
[36] Weinberger, H. F.: First Course in Partial Differential Equations with Complex Variables and
Transform Methods. Dover, 1995.
[38] Guckenheimer, J. and P. Holmes: Nonlinear Oscillations, Dynamical Systems, and Bifurcations
of Vector Fields. Springer Verlag, 1997.
[39] Kevorkian, J.: Partial Differential Equations: Analytical Solution Techniques. Springer Verlag,
second ed., 1999.
[40] Kevorkian, J. and J. D. Cole: Multiple Scale and Singular Perturbation Methods. Springer
Verlag, 1995.
[42] Olver, P. J.: Applications of Lie Groups to Differential Equations. Springer Verlag, second ed.,
1994.
[43] Van Dyke, M.: Perturbation Methods in Fluid Mechanics: Applied Mathematics and Mechanics.
The Parabolic Press, 1975.
26 BIBLIOGRAFÍA
[46] Wales, J. y cols. (eds.): Wikipedia, la enciclopedia libre. The Wikimedia Foundation, Inc., since
2001. http://es.wikipedia.org/.
[47] Wales, J. et al. (eds.): Wikipedia, the free encyclopedia. The Wikimedia Foundation, Inc.,
since 2001. http://www.wikipedia.org/.
[48] Weisstein, E. (ed.): Eric Weisstein’s World of Physics. Wolfram Research Inc., since 1999.
http://scienceworld.wolfram.com/physics/.
[49] Weisstein, E. (ed.): Eric Weisstein’s World of Science. Wolfram Research Inc., since 1999.
http://scienceworld.wolfram.com/.
[50] Weisstein, E. (ed.): Mathworld: the web’s most extensive mathematics resource. Wolfram
Research Inc., since 1999. http://mathworld.wolfram.com/.
Otras referencias
LATEX
[51] http://wikipedia.org/wiki/LaTeX.
[52] Cascales Salinas, B. y cols.: LATEX una imprenta en sus manos. Aula Documental de Investi-
gación, 2000.
[53] Kopka, H. and P. W. Daly: A Guide to LATEX: Document Preparation for Beginners and
Advanced Users. Addison-Wesley, third ed., 1999.
[54] Oetiker, T. et al.: The Not So Short Introduction To LATEX 2ε . Or LATEX 2ε in 157 min-
utes. Free Software Foundation., 5.01 ed., 2011. http://www.ctan.org/tex-archive/info/
lshort/english/lshort.pdf.
Linux
[55] http://www.linux.org.
[56] http://www.gnu.org.
[57] http://wikipedia.org/wiki/Linux.