Anda di halaman 1dari 36

Apuntes de Métodos Espectrales

Manuel Arias Zugasti,


y
Pedro Córdoba Torres

Última modificación: 15 de octubre de 2013


ii
Índice

Prefacio V

1. Introducción a los Métodos Espectrales 1


1.1. Planteamiento del problema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Aproximación por Mı́nimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Repaso de Teorı́a de la Aproximación . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. El problema de Sturm-Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2. Elección de la base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4. Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2. Galerkin and Orthogonal Collocation Methods 15


2.1. Galerkin method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1. Galerkin-Tau method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2. Orthogonal Collocation Method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1. Orthogonal Collocation-Tau method . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.2. Efficient implementation of the Orthogonal Collocation Method . . . . . . . . 19
2.3. Application in higher dimensions, complex geometries, and presence of large gradients 21

Bibliografı́a 23

iii
iv ÍNDICE
Prefacio

Contexto y objetivos
Las ecuaciones de la fı́sica
Todas las ecuaciones de la fı́sica son ecuaciones diferenciales en derivadas parciales (EDP), cuya
solución, en la inmensa mayorı́a de los casos, requiere el uso de métodos numéricos. El objetivo de
esta parte del curso es introducir algunos de los métodos numéricos más estables y mejor fundamen-
tados matemáticamente que existen para resolver ecuaciones diferenciales en derivadas parciales:
los métodos espectrales.
Sólo por mencionar unos pocos ejemplos de EDPs de interés en fı́sica (usando la notación más
extendida en cada caso), tenemos las ecuaciones de Navier-Stokes de la Mecánica de Fluidos1 , las
ecuaciones de conservación de las especies quı́micas en una mezcla2 , o la ecuación del calor3 (tan
importantes en todas las ramas de la ingenierı́a y en meteorologı́a). Por otra parte tenemos las
ecuaciones del Electromagnetismo de Maxwell4 , las ecuaciones de la Relatividad General de Eins-
tein5 , las ecuaciones de la Mecánica Cuántica (ecuación de Schrödinger6 en el caso no relativista y
de Klein-Gordon7 para el caso relativista), o la ecuación de evolución de la densidad de probabili-
1
( )
∂ρ ∂v
+ ∇ · (ρv) = 0, ρ + (v · ∇) v = −∇p + ∇ · τ ′ + ρf (1)
∂t ∂t
2
( )
∂Yi
ρ + (v · ∇) Yi = −∇ · j i + Wi (2)
∂t
3
∂T
= α∆T (3)
∂t
4
∂B ∂D
∇ · D = ρ, ∇ · B = 0, ∇×E =− , ∇×H =J + (4)
∂t ∂t
5
8πG
Gµν = Tµν (5)
c4
6

∂ψ ℏ2
iℏ =− ∆ψ + V ψ (6)
∂t 2m
7

1 ∂2ψ m2 c2
+ ψ = ∆ψ (7)
c2 ∂t2 ℏ2

v
vi PREFACIO

dad para un sistema estocástico (ecuación de Fokker-Planck8 ). Incluso la Mecánica Clásica puede
formularse por medio de una ecuación diferencial en derivadas parciales (la ecuación de Hamilton-
Jacobi9 ) aunque es más habitual su formulación en términos de ecuaciones diferenciales ordinarias
(la ecuación de Newton10 , las ecuaciones de Euler-Lagrange11 o las de Hamilton12 ), por no hablar
de la ecuación de ondas13 , o de la ecuación de Laplace14 y podrı́an citarse fácilmente otros muchos
ejemplos.
Todas las leyes de evolución de la fı́sica pueden expresarse como ecuaciones diferenciales en
derivadas parciales. Esto no es sorprendente si tenemos en cuenta que, en general, cualquier ley
fı́sica que exprese un principio de conservación para una magnitud descriptible por medio de un
campo (una función del espacio, del tiempo, y posiblemente de otros grados de libertad internos)
llevará a una relación que deben cumplir las derivadas de esa función respecto de sus variables, es
decir, a una ecuación diferencial en derivadas parciales.
Desde el punto de vista práctico la principal consecuencia es que para hacer una predicción sobre
la evolución temporal de prácticamente cualquier sistema fı́sico es necesario resolver una ecuación
diferencial en derivadas parciales, el problema es que normalmente ninguna de estas ecuaciones
puede resolverse de manera exacta (analı́tica) en ningún caso realista. Esto tampoco es demasiado
sorprendente si tenemos en cuenta la gran riqueza de comportamientos observados en los sistemas
fı́sicos que vemos a diario, como por ejemplo algo tan común y a la vez tan complejo como la
turbulencia en el flujo de un fluido aparentemente sencillo15 a números de Reynolds elevados, des-
crita satisfactoriamente por las ecuaciones de Navier-Stokes. Esa gran riqueza de comportamientos
posibles es compatible con las ecuaciones de evolución que expresan las leyes fı́sicas verificadas por
esos procesos. Es evidente que una ecuación de evolución capaz de encerrar en el conjunto de sus
soluciones tal variedad de comportamientos y de posibilidades no puede ser algo sencillo, susceptible
de ser resuelto analı́ticamente de manera trivial.
8
∂f
+ ∇ · (U f ) = ∆ (D f ) + H (8)
∂t
9
( )
∂S ∂S ∂S
H q1 , . . . , qN ; ,..., ;t + =0 (9)
∂q1 ∂qN ∂t
10
dv
F =m (10)
dt
11
∂L d ∂L
− =0 (11)
∂qi dt ∂ q̇i
12
∂H ∂H
q̇i = , ṗi = − (12)
∂pi ∂qi
13

∂2f
= c2 ∆f (13)
∂t2
14

∆f = 0 (14)

15
un fluido incompresible con viscosidad constante, formado por un único componente en una sola fase en ausencia
de reacciones quı́micas
vii

Por tanto, para hacer predicciones sobre la evolución temporal de prácticamente cualquier siste-
ma fı́sico tendremos que recurrir a un método numérico, es decir, una aproximación que transforme
los operadores de derivación que aparecen en la ecuación original por operaciones algebraicas,
aproximando ası́ la EDP de partida por la correspondiente ecuación algebraica. Esto implica que
la predicción que seremos capaces de realizar será necesariamente aproximada (nunca exacta), lo
cual tampoco es tan grave si tenemos en cuenta que en la formulación de la propia ley de evolución
que queremos resolver también se han realizado aproximaciones. La consecuencia más grave es que
nuestras predicciones estarán siempre limitadas a un determinado intervalo de tiempo finito.
Aunque la regla general es que necesitamos un método numérico para hacer predicciones, tam-
bién hay casos excepcionales, casos lı́mite, en los que es posible obtener una solución analı́tica, o
bien de manera exacta (por medio del método de las caracterı́sticas o de el de separación de va-
riables [29, 31, 39], o por medio del análisis de simetrı́a de la ecuación diferencial—invariancia Lie
[42]) o bien de manera aproximada (por medio de métodos perturbativos o de desarrollos asintóticos
[37, 40, 41, 43]). El interés de los casos lı́mite en los que es posible obtener soluciones analı́ticas no
es meramente académico, ya que gracias a la información que se extrae de dichos casos es posible
generar el conocimiento que permite comprender lo que sucede en situaciones más complicadas.
Aunque no es el objetivo de este curso, hay que recordar que el trabajo de integrar una ecuación de
evolución no termina cuando se encuentra la solución numérica, la parte fı́sicamente más importan-
te viene después con la interpretación fı́sica del resultado obtenido y la extracción de conclusiones
que nos permitirá hacer predicciones cualitativas para casos similares sin necesidad de hacer ningún
cálculo. El objetivo en fı́sica o en ingenierı́a no es generar una solución numérica sino comprenderla,
es decir, alcanzar cierto grado de conocimiento sobre el comportamiento del sistema.

Métodos numéricos
En el cálculo simbólico se manejan de manera rutinaria objetos matemáticos cuya descripción
completa√ precisa una cantidad infinita de información, por ejemplo un simple número irracional
(como 2) tiene un número infinito de dı́gitos, una función analı́tica requiere un conjunto infinito
de valores, o de manera alternativa un conjunto infinito de coeficientes de su desarrollo en serie de
Taylor, o de Fourier. Las ecuaciones diferenciales en derivadas parciales afectan a objetos matemáti-
cos que no son nada sencillos, excepto cuando es posible generar una solución analı́tica en términos
de funciones conocidas. Cuando esto no es posible es preciso emplear un método numérico, con
el que en primer lugar aproximamos las variables dependientes por una colección finita de datos
numéricos de precisión finita (por ejemplo los valores de la función en un conjunto finito de puntos,
o unos pocos términos del desarrollo de la función en serie de Fourier), una vez que tenemos esta
aproximación, su sustitución en las ecuaciones de evolución nos proporciona las correspondientes
ecuaciones algebraicas (o trascendentes), que ya son susceptibles de ser resueltas por los métodos
estándar de cálculo (por ejemplo inversión de matrices para resolver sistemas lineales, o el método
de Newton-Raphson para resolver ecuaciones no lineales), al menos de manera aproximada, ya que
cualquier cálculo numérico nos limita necesariamente a manejar números de precisión finita, es
decir, en última instancia números racionales.
A pesar de este cúmulo de aproximaciones normalmente es posible acotar el error que se está co-
metiendo, de tal forma que podemos generar soluciones numéricas muy precisas. Gracias a la po-
tencia computacional de que se dispone en la actualidad, resolver por métodos numéricos una EDP
bien planteada es algo rutinario. En este sentido, los métodos espectrales objeto de este curso son
algunos de los métodos más empleados, debido a su alta precisión y estabilidad.
Dependiendo de cómo definamos este conjunto finito de datos en el que se va a basar nuestra
viii PREFACIO

aproximación existen dos grandes familias de métodos numéricos clásicos para resolver ecuaciones
diferenciales en derivadas parciales: los métodos de diferencias finitas [25] y los métodos espectrales
[12]. Aparte de estas dos familias también están los métodos estocásticos (como el método de
Monte Carlo), que resulta ventajoso respecto de los anteriores cuando el número de variables
independientes es grande (normalmente para 5 o más variables independientes).

Diferencias finitas
Básicamente, los métodos de diferencias finitas consisten en discretizar las variables indepen-
dientes con un determinado paso, generando un mallado, de tal forma que las variables dependientes
quedan descritas por sus valores en los nodos del mallado y las derivadas quedan aproximadas por
las correspondientes diferencias finitas. En última instancia la justificación matemática de este
método reside en la teorı́a de desarrollos en serie de Taylor para funciones analı́ticas. Los métodos
de diferencias finitas son fáciles de comprender y de implementar, y son eficientes en su dominio de
aplicabilidad. El problema de estos métodos es que en algunos casos es necesario emplear discretiza-
ciones extremadamente finas, haciendo que sean computacionalmente costosos. La gran ventaja de
estos métodos, aparte de su facilidad de implementación, es que se adaptan sin demasiada dificultad
a geometrı́as complicadas y a la presencia de fuertes gradientes.

Métodos espectrales
En los métodos espectrales se considera a las variables dependientes del problema como elemen-
tos de un determinado espacio funcional de dimensión infinita, y el conjunto finito de datos con el
que aproximamos estas funciones se define como su proyección sobre un subconjunto de dimensión
finita del espacio funcional completo. De esta forma obtenemos una colección finita de coeficientes
del desarrollo de la función de partida en términos de una determinada base truncada.
El ejemplo más sencillo de método espectral consiste en aproximar una determinada función
por medio de su desarrollo en serie de Fourier hasta un determinado orden finito (asumiendo que
los coeficientes de orden superior son nulos). Este ejemplo nos muestra una diferencia fundamental
entre los métodos espectrales y los de diferencias finitas. En los métodos espectrales los valores
de los coeficientes del desarrollo empleado están condicionados por los valores de la función en
todo su intervalo de definición, mientras que los valores en los que se basan las aproximaciones de
diferencias finitas sólo dependen del valor de la función en el punto considerado. Por este motivo
se dice que los métodos espectrales aproximan la solución de manera global, mientras que los de
diferencias finitas lo hacen de manera local. Como consecuencia los métodos espectrales son más
estables que los métodos de diferencias finitas para aproximar funciones suaves, pero tienen peor
comportamiento en el caso de funciones con variaciones muy fuertes, o con discontinuidades.
Los métodos espectrales se basan en sustituir la dependencia respecto de algunas variables por
un desarrollo en términos de una determinada base truncada del espacio funcional (generalmente
de Hilbert) al que pertenece la solución del problema. La gran ventaja de los métodos espectrales
sobre los de diferencias finitas es que son muy estables y precisos. Gracias a esto es posible obtener
soluciones cualitativas por medio de desarrollos espectrales con muy pocos términos (entre 3 y 5)
con un coste computacional realmente bajo. En algunos casos es posible obtener soluciones aproxi-
madas de baja calidad (pero que también proporcionan información valiosa) de manera analı́tica.
Esta versatilidad contrasta con la rigidez de los métodos basados en diferencias finitas, que no
permiten extraer ninguna información hasta que el mallado es lo suficientemente fino, en cuyo caso
la solución que se encuentra es una buena aproximación pero el coste computacional es alto. Por
ix

otra parte, si lo que nos interesa es aproximar la solución buscada con gran precisión, entonces
el coste computacional del método espectral es comparable al basado en diferencias finitas, pero
si realizamos una buena elección para la base espectral la calidad de la solución puede ser mucho
mejor gracias al fenómeno de convergencia exponencial. En cualquier caso los métodos espectrales
permiten tener un mayor control sobre el error y están mejor fundamentados desde el punto de
vista matemático que los de diferencias finitas.
Las limitaciones de los métodos espectrales son principalmente la dificultad que tiene su apli-
cación en casos de geometrı́a complicada y la dificultad introducida por la presencia de gradientes
intensos y/o de discontinuidades.

Relación entre ambos: Método de Descomposición del Dominio

En la aplicación de los métodos espectrales para resolver problemas de evolución, lo más habitual
es aproximar la dependencia respecto de las variables espaciales de la solución por desarrollos
espectrales, quedando los coeficientes de ese desarrollo como funciones del tiempo. Cuando se
emplean desarrollos espectrales en más de una dimensión espacial la base espectral se suele construir
como el producto tensorial de las bases espectrales empleadas en cada una de las direcciones, lo cual
implica que (en términos de las variables espaciales empleadas) el dominio espacial es un hipercubo.
Como consecuencia, si la geometrı́a del problema es complicada resulta imposible aplicar un
método espectral, en ese caso la única forma de resolver el problema es con diferencias finitas,
empleando mallados desestructurados en el caso de geometrı́as realmente muy complicadas (como
por ejemplo el flujo en torno a los motores de un avión).
Si la geometrı́a no es demasiado complicada el Método de Descomposición del Dominio permite
resolver el problema dividiendo el dominio original en trozos (subdominios) de geometrı́a sencilla, e
introduciendo posteriormente un desarrollo espectral independiente en cada uno de los subdominios.
Este método también se aplica con éxito para resolver casos con discontinuidades y/o gradientes
intensos, dividiendo el dominio en subdominios donde la solución es suficientemente suave. En este
caso es frecuente combinar la descomposición del dominio con cambios de variable o mappings que
proporcionan mayor resolución espacial en aquellas zonas donde es precisa.
El Método de Descomposición del Dominio establece también un puente entre los métodos de
diferencias finitas y los métodos espectrales, aparentemente independientes. En efecto, es fácil darse
cuenta de que resolver un problema en un dominio determinado por el método de diferencias finitas
usando un mallado muy fino es equivalente a introducir una descomposición del dominio muy fina
y posteriormente emplear en cada subdominio un desarrollo espectral de orden muy bajo (por
medio de un polinomio de orden 1 o, a lo sumo, cuadrático). En el otro extremo, la aplicación de
un método espectral puro consiste en no subdividir el dominio espacial de partida y aproximar la
solución por medio de un desarrollo espectral de orden muy alto (por ejemplo por un polinomio de
grado alto).
La opción intermedia entre estos dos extremos es el Método de Descomposición del Dominio, que
consiste en considerar una subdivisión del dominio intermedia e introducir un desarrollo espectral
de orden intermedio en cada uno de los subdominios. El Método de Descomposición del Dominio
es la forma óptima de resolver problemas sobre dominios espaciales extensos, ya que por un lado
hereda las ventajas de ambos métodos, por otro lado la acumulación de errores de redondeo hace
que sea más eficiente esta solución intermedia que aumentar infinitamente el orden del desarrollo
espectral o que subdividir infinitamente el mallado para las diferencias finitas, y por último su
propia estructura hace que sea fácilmente paralelizable.
x PREFACIO

Guı́a de estudio

Agradecimientos
Nos gustarı́a dejar constancia de nuestro agradecimiento hacia la Free Software Foundation y
el proyecto GNU por poner a nuestra disposición herramientas informáticas gratuitas de verdadera
calidad. Este documento ha sido elaborado ı́ntegramente con el procesador de textos LATEX 2ε , los
esquemas que aparecen en las figuras se han llevado a cabo o bien en LATEX o bien con el programa
de diseño xfig, ambos programas van incluidos en cualquier distribución del sistema operativo
gratuito Linux.
Capı́tulo 1

Introducción a los Métodos


Espectrales

El objetivo de esta parte del curso es presentar diversos métodos numéricos basados en desa-
rrollos truncados en términos de bases de espacios de Hilbert, aplicables para resolver de manera
aproximada ecuaciones diferenciales en derivadas parciales, este tipo de métodos numéricos se de-
nominan métodos espectrales. En este tema presentaremos una introducción general del curso.
El problema que queremos resolver inicialmente es una EDP totalmente general en 1 + 1 di-
mensiones, que podemos denotar por
Df = 0 (1.1)
donde f = f (x, t) y el operador D es un operador diferencial respecto de las variables independien-
tes, que llamaremos x y t. En principio supondremos que D es un operador diferencial de orden no
superior a dos (aunque esta restricción no es necesaria) y supondremos que puede ser un operador
no lineal ( )
∂f ∂f ∂ 2 f ∂ 2 f
D = D x, t, f, , , , ,... (1.2)
∂x ∂t ∂x2 ∂t2
Posteriormente veremos cómo aplicar esta estrategia en problemas de mayor dimensionalidad.
Un ejemplo del tipo de ecuaciones diferenciales no lineales en las que estamos interesados es la
ecuación del calor con difusividad térmica α dependiente de la temperatura T
∂T ∂2T
= α(T ) 2 (1.3)
∂t ∂x
otro ejemplo de ecuación no lineal serı́a la ecuación de ondas con velocidad de propagación c
dependiente de la amplitud f
∂2f 2
2∂ f
= c(f ) (1.4)
∂t2 ∂x2
o la ecuación de Navier-Stokes.
Por supuesto también supondremos que la EDP considerada tiene definidas las condiciones de
contorno adecuadas como para que el problema esté bien definido. En este sentido, en general
supondremos que el problema Ec. (1.1) es un problema de condiciones de contorno respecto de la
variable x, de tal forma que el problema está planteado en el intervalo x ∈ [a, b] (con a < b) y
en los lı́mites del intervalo se aplican las correspondientes condiciones de contorno, que podrán ser
de cualquier tipo: lineales o no lineales, homogéneas o no homogéneas, separables o no separables,
Dirichlet, Neumannm, mixtas, etc. Más adelante veremos con algo más de detalle esta cuestión.

1
2 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES

En cuanto a la variable t supondremos que el problema Ec. (1.1) es un problema de condiciones


iniciales, y que se conocen tantas condiciones iniciales respecto a t como indique el orden de la
derivada de orden mayor respecto a t que aparezca en D.

1.1. Planteamiento del problema


Inicialmente consideraremos sólo problemas en 1 + 1 dimensiones, esto quiere decir que existen
dos variables independientes de forma que una de ellas juega el papel de “espacio” (x) y la otra
de “tiempo” (t). En este curso lo que diferencia las variables “de tipo espacio” (denotadas por x)
de la variable “de tipo tiempo” (denotada por t) es que el problema que queremos resolver (Ec.
(1.1)) es un problema de condiciones de contorno respecto de la variable x, mientras que es un
problema de condiciones iniciales respecto de la variable t. Esta es la situación que tenemos, por
ejemplo, en la ecuación del calor (Ec. (1.3)) o en la ecuación de ondas (Ec. (1.4)) mencionadas más
arriba, en esos casos la variable x representa una coordenada espacial y la variable t es el tiempo.
En general las variables x y t del problema Ec. (1.1) no tienen por qué corresponder al espacio o
al tiempo en el sentido fı́sico, pero en cualquier caso supondremos que tenemos un problema de
condiciones de contorno respecto a x y de condiciones iniciales respecto a t. Posteriormente veremos
cómo generalizar estos métodos a problemas con más variables de tipo espacio, pero siempre con
una única variable de tipo tiempo (p. ej. veremos problemas en 2 + 1 o 3 + 1 dimensiones).
Los métodos espectrales consisten en aproximar la dependencia respecto de las variables espa-
ciales (aquı́ x) por medio de un desarrollo en términos de una base completa de un cierto espacio de
Hilbert (es decir, un conjunto de funciones {φi }∞ i=1 tal que cualquier función perteciente al espacio
puede expresarse como combinación lineal de la base), mientras que la dependencia respecto de la
variable de tipo tiempo (aquı́ t) queda transferida a los coeficientes del desarrollo. En nuestro caso
esto significa que si tenemos la variable dependiente f = f (x, t), aproximamos esta función por un
desarrollo del tipo

f (x, t) = ci (t)φi (x) (1.5)
i

Este tipo de desarrollos se denominan desarrollos espectrales, cada uno de los sumados que aparece
en el lado derecho de Ec. (1.5) es una componente espectral del desarrollo, y con frecuencia nos
referiremos a la base φi (x) como base espectral.
Para que este tipo de desarrollo sea aplicable es necesario que la función f (x, t) que estamos
buscando (la solución del problema Ec. (1.1)) pertenezca al espacio de Hilbert engendrado por
la base φi (x). En general la hipótesis de partida de cualquier método espectral es que la función
que estamos buscando pertenece a un cierto espacio de Hilbert, y por tanto es expresable como
combinación lineal de cualquier base completa de dicho espacio funcional. Normalmente existen
argumentos fı́sicos que justifican esta hipótesis; un caso habitual es que la norma al cuadrado de la
función f (x, t) como elemento de un cierto espacio funcional esté relacionada con alguna variable
fı́sica del sistema (p. ej. la energı́a total del sistema) que necesariamente debe estar acotada (la
energı́a de un sistema no puede ser infinita), lo cual garantiza que f pertenece a dicho espacio de
Hilbert. En lo sucesivo esta será nuestra hipótesis de partida.
Existen varios métodos espectrales distintos, todos ellos tienen en común el uso de un desarrollo
como el anterior para (algunas de) las variables dependientes del problema y se diferencian entre
sı́ en la forma de escoger la base espectral (es decir, el conjunto de funciones φi (x) empleado en el
desarrollo) y la forma de calcular los coeficientes del desarrollo (es decir, las funciones ci (t)).
1.2. APROXIMACIÓN POR MÍNIMOS CUADRADOS 3

Una cuestión que hemos dejado sin indicar en el anterior desarrollo es el número de componen-
tes espectrales empleado (el número de funciones φi (x)). Los espacios funcionales, en particular
los espacios de Hilbert, tienen infinitas dimensiones, de modo que cualquier base completa tiene
necesariamente infinitos elementos, que en principio habrı́a que incluir en el desarrollo. Formalmen-
te sólo es posible manejar desarrollos con infinitos términos si la ecuación que queremos resolver
y sus condiciones de contorno son lineales y separables. En ese caso, tomando como base para el
desarrollo a la base de autofunciones del problema considerado podemos ir construyendo la solución
por medio del conocido método de separación de variables. El método de separación de variables no
es aplicable en problemas no lineales, sin embargo, aunque el problema sea no lineal, si la solución
pertenece a un cierto espacio de Hilbert esta será expresable como combinación lineal de cualquier
base completa de dicho espacio. Como numéricamente no resulta posible manejar desarrollos con
infinitas componentes, todos los métodos espectrales se basan en considerar desarrollos truncados,
con un cierto número finito (N ) de términos. En principio parece razonable suponer que si el núme-
ro de términos incluidos en el desarrollo es suficientemente alto, entonces el desarrollo truncado
proporcionará una buena aproximación a la función buscada, lo cual quedará patente cuando al au-
mentar el número de términos incluidos en nuestro desarrollo no observemos variaciones apreciables
en la solución (cuando sucede esto se dice que el desarrollo ha convergido a la solución buscada).
El hecho de considerar un número finito de términos en el desarrollo de f hace que los métodos
espectrales sean métodos numéricos aproximados. La gran ventaja de los métodos espectrales es
su estabilidad, precisión y elevada velocidad de convergencia, es decir, la posibilidad de obtener
aproximaciones muy precisas con un número no demasiado elevado de componentes espectrales. El
buen funcionamiento de los métodos espectrales está condicionado por diversos factores que iremos
viendo más adelante, entre los que destaca la adecuada elección de la base espectral y la presencia
o no de singularidades en la función que queremos aproximar y sus derivadas.
A lo largo de este curso veremos en primer lugar los distintos métodos espectrales que se obtienen
dependiendo de

La elección de la base truncada φi (x) (i = 1, . . . , N ).

La forma de determinar los coeficientes del desarrollo.

Posteriormente veremos cómo se generalizan estos métodos para problemas en más de 1 + 1 di-
mensiones y cuál es la relación existente entre los métodos espectrales y otros métodos habituales
(como p. ej. los basados en diferencias finitas).

1.2. Aproximación por Mı́nimos Cuadrados


El primer problema que vamos abordar es el de la determinación de los coeficientes del desarrollo
truncado.
∑N
f (x) ≃ fN (x) = ci φi (x) (1.6)
i=1

donde la dependencia respecto de la variable t está implı́cita.


La manera más razonable de determinar los coeficientes del desarrollo truncado es exigir que el
error de la aproximación obtenida sea, en cierto sentido, mı́nimo, esta es la idea de la aproximación
por mı́nimos cuadrados. Lógicamente, antes de plantearnos minimizar el error debemos escoger la
manera que vamos a emplear para medir este error. Si definimos el error como la diferencia entre
4 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES

la función exacta f y la aproximación fN




E = f − fN = ci φi (x) (1.7)
i=N +1

una posible medida de este error es la norma de esta diferencia al cuadrado (elevamos al cuadrado
para evitar la posible cancelación mútua de errores de signo opuesto). Suponemos por tanto que
estamos en el contexto del espacio de Hilbert de las funciones de cuadrado integrable sobre un
cierto intervalo [a, b] de la recta real, donde hemos definido el producto escalar de acuerdo a
∫ b
(f, g) ≡ w(x) f (x) g(x) dx (1.8)
a

donde w(x) > 0 es una cierta función peso y donde f (x) es el complejo conjugado de f (x) (en
general consideraremos sólo funciones reales, de modo que omitiremos esta operación). Una medida
del error de nuestro desarrollo truncado es por tanto la norma al cuadrado de la diferencia
∫ b
∥E∥ =
2
w(x) (f (x) − fN (x))2 dx (1.9)
a

donde hemos considerado la norma inducida por el producto escalar.


Aplicando el método de mı́nimos cuadrados, para calcular los coeficientes del desarrollo truncado
imponemos que este error sea mı́nimo, es decir

∂∥E∥2
= 0, k = 1, . . . , N (1.10)
∂ck
Operando es inmediato verificar que

1 ∂∥E∥2 ∑
N
= ci (φk , φi ) − (φk , f ) (1.11)
2 ∂ck
i=1

lo cual, sustituyendo en Ec. (1.10), genera un conjunto de N ecuaciones lineales que determinan los
coeficientes ck . El caso más habitual (y más sencillo) es aquel en que la base empleada es ortonormal
respecto del producto escalar Ec. (1.8)

(φi , φj ) = δij (1.12)

en ese caso los coeficientes que minimizan el error (es decir, los ck que verifican las condiciones Ec.
(1.10)) están dados por la proyeccción ortogonal de la función f sobre cada una de las componentes
espectrales incluidas en el desarrollo, es decir

ci = (φi , f ) , i = 1, . . . , N (1.13)

Este conjunto de coeficientes genera la aproximación por mı́nimos cuadrados de f en el subespacio


N -dimensional generado por la envolvente lineal de la base truncada {φi }N i=1 . Esta forma de definir
los coeficientes del desarrollo implica que el error E es ortogonal al subespacio generado por la base
truncada considerada, es decir,

(φi , E) = 0, i = 1, . . . , N (1.14)
1.3. REPASO DE TEORÍA DE LA APROXIMACIÓN 5

tal y como puede comprobarse a partir de Ec. (1.7) y las relaciones de ortogonalidad Ec. (1.12).
A modo de resumen, en esta introducción hemos visto que los métodos espectrales se basan en
desarrollar la dependencia de la solución buscada (f ) respecto de algunas variables independientes
(x) por medio de desarrollos truncados en términos de una base completa de un cierto espacio de
Hilbert, posteriormente los coeficientes de este desarrollo se calculan aplicando mı́nimos cuadrados
(Ec. (1.14)). De esta forma el método consiste en aproximar la dependencia respecto de x de f (x, t)
por la proyección de f en un cierto subespacio con un número finito (N ) de dimensiones, quedando
la dependencia respecto a la variable t transferida a los coeficientes del desarrollo. Los distintos
métodos espectrales que existen se diferencian entre sı́ en el producto escalar empleado para realizar
esta proyección ortogonal. En este curso veremos los dos métodos espectrales más habituales: el
método de Galerkin y el método de colocación ortogonal.

1.3. Repaso de Teorı́a de la Aproximación


En este apartado vamos a revisar la cuestión de las distintas bases espectrales que uno puede
emplear para realizar el desarrollo truncado. En principio cualquier base completa del espacio de
Hilbert al que pertenece la solución del problema es válida para hacer el desarrollo. Sin embargo,
el número de componentes espectrales necesario para obtener una buena aproximación puede ser
muy distinto dependiendo de la base empleada. El objetivo de los métodos espectrales es obtener la
mejor aproximación posible con el mı́nimo número de términos posible, lo cual está condicionado
por la base que escojamos para hacer el desarrollo. Cualquier desarrollo con un número (N ) finito
de términos tiene asociado, inevitablemente, un cierto error. A medida que incluidos más términos
en el desarrollo este error irá disminuyendo y si la función que estamos aproximando (f ) pertenece
realmente al espacio engendrado por la base considerada (lo cual está condicionado por las con-
diciones de contorno y por la posible presencia de singularidades), entonces en el lı́mite N → ∞
tendremos
∑ que el error tiende a cero. En general la norma al cuadrado del error f − fN está dada
por ∞ 2
i=N +1 ci (ver Ec. (1.7)), por tanto el ritmo con que los coeficientes cn tienden a cero cuando
n → ∞ nos indica la velocidad de convergencia del desarrollo.
Dependiendo de la velocidad con que tienden a cero los coeficientes cn en el lı́mite n → ∞
tenemos las siguientes posibilidades:

Convergencia algebraica
Existe un mı́nimo número de términos n0 tal que para n > n0 los coeficientes del desarrollo
tienden a cero cuando n → ∞ de acuerdo a una ley de potencias

|cn | ∼ n−k

donde el exponente k es un cierto número positivo. En este caso se dice que para n > n0 hay
convergencia algebraica de orden k. Por supuesto, cuanto mayor sea k mejor es la calidad del
desarrollo, pero de todas formas la convergencia algebraica no es el caso óptimo.

Convergencia exponencial
Existe un mı́nimo número de términos n0 tal que para n > n0 los coeficientes del desarrollo
tienden a cero cuando n → ∞ más deprisa que n−k para cualquier k finito. La convergencia
exponencial corresponde, por tanto, a convergencia algebraica de orden infinito.

Orden de convergencia
6 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES

De manera más precisa, un desarrollo tiene convergencia algebraica de orden k cuando existe
un exponente k > 0 tal que
lı́m |cn |nk < ∞
n→∞

en ese caso se define el orden de la convergencia como el mayor k para el que se cumple la
relación anterior. Cuando la relación anterior se cumple para cualquier valor de k finito se
dice que el desarrollo tiene convergencia exponencial.

Es importante darse cuenta de que las definiciones anteriores aluden al comportamiento asintótico
de los coeficientes del desarrollo (es decir al lı́mite n → ∞). El comportamiento de los coeficientes
cn con n pequeño no es indicativo de la velocidad de convergencia.
El objetivo de los métodos espectrales es valerse de desarrollos con convergencia exponencial.
Cuando esto es posible los métodos espectrales proporcionan una aproximación de gran calidad con
un número de términos no demasiado elevado, lo que en la práctica se traduce en que el desarrollo
obtenido con un número de términos del orden de algunas decenas es totalmente indistinguible de
la solución buscada.

⋆ ¿Cuántas componentes espectrales hacen falta para una buena aproximación?

En principio esta pregunta no puede responderse de manera general, los resultados pueden ser muy
distintos dependiendo de la función que intentemos aproximar y de la base empleada. De todas
formas, para fijar ideas diremos que “en la mayorı́a de los casos” se manejan números N entre 10
y 30 para intervalos acotados y del orden del doble para intervalos no acotados. La convergencia
exponencial sólo es posible si la función que queremos aproximar es suficientemente suave, es decir,
si tanto f como sus derivadas de cualquier orden no tienen singularidades. Suponiendo que se
cumple esta condición, la posibilidad de tener un desarrollo con convergencia exponencial depende
fuertemente de que hagamos una elección adecuada para la base espectral. Existen dos factores
fundamentales que determinan la base a emplear:

Dependiendo del intervalo [a, b] considerado las posibilidades son las siguientes:

• Intervalo acotado (|a| < ∞ y |b| < ∞).


• Intervalo semi-acotado (o bien |a| < ∞ y b = ∞ o bien a = −∞ y |b| < ∞).
• Intervalo no acotado (a = −∞ y b = +∞).

Dependiendo de las condiciones de contorno que debemos imponer a f las posibilidades son:

• Problema de orden 2 respecto de x. Esto implica que debemos imponer condiciones


de contorno tanto en a como en b, las cuales podrán ser periódicas, no periódicas, ho-
mogéneas, no homogéneas, Dirichlet, Neumann, mixtas, etc.
• Problema de orden 1 respecto de x. Esto implica que debemos imponer condiciones de
contorno o bien sólo en a o bien sólo en b.

En principio nos centraremos en problemas de orden 2 respecto a x, de modo que la adecuada


elección de la base estará condicionada por las condiciones de contorno que impongamos sobre f
en los lı́mites del intervalo.

⋆ ¿Cuándo podemos alcanzar una velocidad de convergencia exponencial?


1.3. REPASO DE TEORÍA DE LA APROXIMACIÓN 7

La Teorı́a de la Aproximación en el contexto de los espacios de Hilbert establece qué condiciones


deben cumplirse para que la velocidad de convergencia de un desarrollo espectral sea exponencial.
Principalmente las 2 condiciones que deben cumplirse son las siguientes:

La función f (x) que desarrollamos debe ser suave, es decir, tanto f (x) como sus derivadas de
cualquier orden deben estar exentas de singularidades.
En general la presencia de discontinuidades en una función, o en cualquiera de sus derivadas,
limita el orden de convergencia a una convergencia algebraica (en el mejor de los casos), de
modo que cuanto más bajo sea el orden de la derivada en la que aparecen las discontinuidades
tanto menor será el orden de la convergencia algebraica. Para obtener una convergencia
exponencial es necesario que la función f (x) tenga infinitas derivadas continuas, en cuyo caso
se dice que f es de clase C ∞ .

La base espectral empleada debe ser compatible con las condiciones de contorno del problema.
Cuando se emplea una base espectral incompatible con las condiciones de contorno del pro-
blema (en x = a, en x = b, o en ambos lı́mites), implı́citamente se está introduciendo una
discontinuidad en el correspondiente punto (x = a, x = b, o ambos), lo cual limita la velocidad
de convergencia del desarrollo a una convergencia algebraica (en el mejor de los casos).

En principio las condiciones anteriores pueden parecer demasiado exigentes, sin embargo, la con-
dición de suavidad de f (x) suele estar garantizada por el significado fı́sico de dicha función. En el
apartado siguiente revisaremos brevemente la cuestión de la compatibilidad entre la base espectral
y las condiciones de contorno del problema para el caso de desarrollos en serie de autofunciones de
problemas de Sturm-Liouville.

1.3.1. El problema de Sturm-Liouville


La inmensa mayorı́a de las bases de espacios de Hilbert que suelen emplearse en la práctica
aparecen como autofunciones de problemas de Sturm-Liouville (SL), es decir, están relacionadas
con la solución de un problema de autovalores y con el espectro de un cierto operador diferencial, lo
que motiva la denominación de base “espectral”. Una excepción a esta regla está dada por la base de
funciones “sinc” de Whittaker (relacionada con el teorema de muestreo), o las bases de wavelets, en
este curso no consideraremos esos casos. El problema de Sturm-Liouville se ha estudiado en cursos
anteriores, de modo que no lo revisaremos aquı́ con detalle, sólo recordaremos muy brevemente que
el problema de Sturm-Liouville está dado por la siguiente ecuación diferencial ordinaria lineal de
orden 2 [ ]
d dφ
p(x) + [λw(x) − q(x)] φ(x) = 0 (1.15)
dx dx
definido en un cierto intervalo a ≤ x ≤ b, donde la función peso w(x) debe ser positiva y φ cumple
ciertas condiciones de contorno en a y b. El problema de Sturm-Liouville puede re-escribirse como
un problema de autovalores
Lφ = λφ (1.16)
donde el operador diferencial lineal L es
( [ ] )
1 d dφ
Lφ = − p(x) + q(x)φ(x) (1.17)
w(x) dx dx
8 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES

Este problema sólo tiene solución no trivial cuando λ es igual a alguno de los autovalores (λi )
de L, en cuyo caso la solución es la correspondiente autofunción φi (x). El carácter autoadjunto
del operador L garantiza que los autovalores son reales, en la mayorı́a de los casos el espectro
es exclusivamente discreto, lo que implica que los λi pueden ordenarse de acuerdo a λ1 < λ2 <
λ3 < . . . . El resultado de la teorı́a de Sturm-Liouville de mayor importancia para nosotros es que
el conjunto de autofunciones φi (x) es una base completa del espacio de Hilbert √ de funciones de
cuadrado integrable en [a, b] respecto del peso w(x) (o lo que es lo mismo, w(x)φi (x) es una
base completa del espacio de Hilbert de funciones de cuadrado integrable en [a, b] respecto del
peso 1). En virtud del carácter autoadjunto de L estas autofunciones son ortogonales, y siempre
pueden normalizarse convenientemente de manera que se cumpla (φi , φj ) = δij , donde el producto
escalar está definido en Ec. (1.8). Otro resultado de la teorı́a de Sturm- Liouville con consecuencias
importantes para nosotros es que puede demostrarse que cada autofunción φi tiene i − 1 ceros,
todos ellos reales, distintos, y contenidos en el intervalo abierto (a, b).
Veamos algunas de las bases espectrales más habituales, dadas por la solución de problemas de
SL en intervalos acotados y no acotados.

Intervalo [0, π] y condiciones de contorno Dirichlet homogéneas


Consideremos el problema de Sturm-Liouville con p(x) = 1, q(x) = 0, w(x) = 1 en el intervalo
acotado [0, π]
d2 φ
+ λφ = 0, φ(0) = φ(π) = 0
dx2
La solución de este problema da lugar a la base de funciones seno de Fourier
φn (x) = sen nx, n = 1, 2, . . .
Los autovalores son λn = n2 con n natural mayor que cero.

Intervalo [0, π] y condiciones de contorno Neumann homogéneas


El problema de Sturm-Liouville con p(x) = 1, q(x) = 0, w(x) = 1 en el intervalo acotado [0, π]
d2 φ
+ λφ = 0, φ′ (0) = φ′ (π) = 0
dx2
da lugar a la base de funciones coseno de Fourier
φn (x) = cos nx, n = 0, 1, 2, . . .
Los autovalores son λn = n2 con n natural.

Base de Fourier: Intervalo [0, 2π] y condiciones de contorno periódicas


El problema de Sturm-Liouville con p(x) = 1, q(x) = 0, w(x) = 1 en el intervalo acotado [0, 2π]
d2 φ
+ λφ = 0, φ(0) = φ(2π), φ′ (0) = φ′ (2π)
dx2
da lugar a la base completa de Fourier
φn (x) = sen nx, cos nx, n = 0, 1, 2, . . .
Los autovalores son λn = n2 con n natural.
1.3. REPASO DE TEORÍA DE LA APROXIMACIÓN 9

Base de Legendre:
Intervalo [−1, 1], p(x) = 1 − x2 , q(x) = 0, w(x) = 1.
Este caso tiene dos familias de soluciones, las funciones de Legendre de segunda especie (que
son singulares en los extremos del intervalo x = ±1) y los polinomios de Legendre, que se obtienen
imponiendo regularidad en todo el intervalo por medio de la normalización φ(1) = 1. Los autovalores
son λn = n(n + 1) y la base está dada por la familia de polinomios φn (x) = Pn (x)
P0 (x) = 1, P1 (x) = x, (n + 1)Pn+1 (x) = (2n + 1)xPn (x) − nPn−1 (x)

Base de Chebyshev:
( )1/2 ( )−1/2
Intervalo [−1, 1], p(x) = 1 − x2 , q(x) = 0, w(x) = 1 − x2 .
Los polinomios de Chebyshev cumplen la condición de normalización φ(1) = 1, son regulares
en todo el intervalo, y son la base que emplearemos con mayor frecuencia debido a que es la que
proporciona el mı́nimo error máximo local (condición minimax). Los autovalores son λn = n2 y la
base está dada por la familia de polinomios φn (x) = Tn (x)
T0 (x) = 1, T1 (x) = x, Tn+1 (x) = 2xTn (x) − Tn−1 (x)

Base de Jacobi:
Intervalo [−1, 1], p(x) = (1 − x)1+α (1 + x)1+β , q(x) = 0, w(x) = (1 − x)α (1 + x)β , α >
−1, β > −1.
Este caso engloba muchas de las bases de polinomios ortogonales habituales, como la base de
Legendre (α = 0, β = 0) o la de Chebyshev (α = β = −1/2). En este caso los autovalores son
λn = n(n + α + β + 1) y la expresión de la regla de recurrencia que define la base de polinomios de
Jacobi es algo complicada como para reproducirla aquı́.

Base de Laguerre:
Intervalo semi-acotado [0, ∞], p(x) = xe−x , q(x) = 0, w(x) = e−x .
Los autovalores son λn = n y la base de Laguerre está dada por φn = e−x/2 Ln (x), donde los
polinomios de Laguerre son
1
L0 (x) = 1, L1 (x) = 1 − x, Lk+1 (x) = ((2k + 1 − x)Lk (x) − kLk−1 (x))
k+1
Los polinomios de Laguerre son un caso particular de los polinomios asociados de Laguerre
(también llamados polinomios de Sonine), que son ortogonales en [0, ∞] respecto a la función peso
w(x) = xα e−x .

Base de Hermite:
Intervalo no acotado [−∞, +∞], p(x) = e−x , q(x) = 0, w(x) = e−x .
2 2

Los autovalores son λn = 2n y la base de Hermite está dada por φn = e−x


2 /2
Hn (x), donde los
polinomios de Hermite son
H0 (x) = 1, H1 (x) = 2x, Hn+1 = 2xHn − 2nHn−1
10 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES

1.3.2. Elección de la base


Aparte de esta breve colección de bases espectrales existen otros muchos ejemplos de problemas
de Sturm-Liouville relevantes en fı́sica, que no podemos resumir aquı́ por limitaciones de espacio.
La cuestión que vamos a considerar ahora es cómo hacer una buena elección de una base del espacio
de Hilbert para resolver el problema Ec. (1.1), es decir, cómo podemos escoger una base que genere
una buena aproximación a la solución por medio de un número razonable de términos, o en otras
palabras, que tenga convergencia exponencial.
El primer factor que determina la base a emplear es el carácter acotado o no del intervalo [a, b].
Si nuestro intervalo es semi-acotado o no acotado entonces hay pocas dudas respecto a cuál es la
base a emplear: las únicas opciones son Laguerre en el intervalo semi-acotado y Hermite en el no
acotado (en el primer caso puede ser necesario emplear un cambio de variable que transforme el
intervalo semiacotado [a, b] en el [0, ∞]). Otra alternativa que también es útil cuando se trabaja con
intervalos no acotados es introducir un cambio de variable que convierta el intervalo no acotado
[a, b] en uno acotado (concretamente en el intervalo estándar [−1, 1]). En el caso de un intervalo
acotado, por el contrario, existen múltiples opciones respecto a la base a emplear. Si el intervalo
de trabajo es acotado siempre se puede re-escalar por medio de un cambio de variable para hacerlo
coincidir con los intervalos estándar habituales (p. ej. [0, 2π] o [−1, 1]), en ese caso lo que determina
la mejor elección de la base son las condiciones de contorno del problema de partida.
De manera intuitiva es fácil llegar a la conclusión de que “siempre que sea posible” se debe
usar una base que cumpla las condiciones de contorno del problema de partida. Por ejemplo, si el
problema de partida tiene condiciones de contorno periódicas debemos emplear la base de Fourier,
y si tiene condiciones de contorno Neumann homogéneas debemos emplear una base que cumpla
idénticamente dichas condiciones, de esta forma el desarrollo espectral cumple idénticamente las
condiciones de contorno del problema (i.e. sean cuales sean los valores de los coeficientes), de modo
que para calcular los coeficientes del desarrollo sólo nos resta imponer que la solución cumpla la
ecuación diferencial (al menos de forma aproximada). Este tipo de elección de la base sólo será po-
sible en problemas con condiciones de contorno “muy sencillas”, como las que acabamos de indicar.
Por el contrario, si nuestro problema tiene condiciones de contorno un poco más generales (como
p. ej. condiciones de contorno mixtas), será imposible escoger una base que las verifique idéntica-
mente, y por tanto en ese caso tendremos que imponer las condiciones de contorno posteriormente.
Para que esto sea posible debemos emplear una base que, aunque no cumpla idénticamente las
condiciones de contorno del problema, por lo menos que no sea incompatible con ellas, de lo con-
trario la calidad del desarrollo espectral no podrá ser buena, sea cual sea el número de términos
incluido. Por ejemplo, supongamos un problema planteado en el intervalo [0, 2π], con condiciones de
contorno f (0) = 0 y f (2π) = 1. Si intentamos resolver este problema empleando la base de Fourier
encontraremos que nuestro desarrollo no converge a la solución cerca de los lı́mites del intervalo,
el motivo es que estamos empleando una base que cumple condiciones de contorno periódicas para
un problema con condiciones de contorno no periódicas, es decir, estamos empleando una base que
es incompatible con las condiciones de contorno del problema.
En general será muy excepcional que las condiciones de contorno de nuestro problema sean lo
suficientemente sencillas como para que sea posible definir una base que las cumpla idénticamente.

⋆ En un caso con condiciones de contorno generales ¿cómo podemos escoger una base que no
sea incompatible con las condiciones de contorno del problema?

Existen dos tipos de problemas de Sturm-Liouville, por un lado están los problemas de SL regulares
y por otro los problemas de SL singulares. Un problema de SL es regular si p(x) > 0 y w(x) > 0 ∀x
1.3. REPASO DE TEORÍA DE LA APROXIMACIÓN 11

en a ≤ x ≤ b y singular en caso contrario. En general, las bases que se deducen de problemas de SL


regulares cumplen condiciones de contorno especı́ficas (p. ej. condiciones de contorno periódicas, o
Dirichlet homogéneas) y por tanto sólo pueden usarse para resolver problemas que cumplan esas
mismas condiciones de contorno, pero no pueden usarse en problemas con condiciones de contorno
generales. Por el contrario, las bases que se deducen de problemas de SL singulares no cumplen
condiciones de contorno especı́ficas y son las que se deben usar en problemas con condiciones de
contorno no triviales. A continuación veremos esta cuestión con algo más de detalle.

Problemas de Sturm-Liouville regulares y singulares


Supongamos el desarrollo truncado hasta orden N dado por Ec. (1.6), donde la base φi es
la correspondiente a un problema de Sturm-Liouville.
∑ Como ya hemos mencionado, la norma al
cuadrado del error f − fN está dada por ∞ c2 , por tanto el ritmo con que los coeficientes c
i=N +1 i i
tienden a cero cuando i → ∞ nos indica la velocidad de convergencia del desarrollo. Si empleamos
una aproximación de mı́nimos cuadrados los coeficientes de este desarrollo están dados por
∫ b
cn = w(x) φn (x) f (x) dx (1.18)
a

Pero como φn (x) es la autofunción correspondiente al autovalor λn de una ecuación de Sturm-


Liouville tenemos ∫ b( [ ] )
1 d dφn
cn = − p(x) + q(x)φn (x) f (x) dx (1.19)
λn a dx dx
Aplicando integración por partes dos veces esto implica que

1 [ ]b 1 b
cn = p(x) φn (x)f ′ (x) − φ′n (x)f (x) a + w(x) h(x)φn (x) dx (1.20)
λn λn a

donde la función h(x) está dada por


( [ ] )
1 d df
h(x) = − p(x) + q(x)f (x) (1.21)
w(x) dx dx
Supongamos que la base que estamos empleando cumple condiciones de contorno Dirichlet
homogéneas (φn (a) = φn (b) = 0), entonces, teniendo en cuenta que
∫ b 2 ∫ b ∫ b


w(x) h(x) φn (x) dx ≤ 2
w(x) h(x) dx w(x) φn (x)2 dx (1.22)

a a a

que es de orden unidad (O(1)) en el lı́mite n → ∞, deducimos finalmente que el comportamiento


de los coeficientes cn en el lı́mite n → ∞ es
( )
1 [ ′ ′
] 1
cn = p(a)φn (a)f (a) − p(b)φn (b)f (b) + O (1.23)
λn λn
Para extraer conclusiones de este análisis debemos considerar por separado los casos de bases
definidas por problemas de Sturm-Liouville regulares y singulares. Como ya hemos mencionado,
un problema de SL es regular si p(x) > 0 y w(x) > 0 ∀x en a ≤ x ≤ b y singular en caso
contrario. Por ejemplo, los problemas de SL planteados en [0, ∞] son singulares en x = ∞, ya que
por normalización w(x) debe anularse en dicho lı́mite. Por el mismo motivo, los problemas de SL
12 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES

en [−∞, +∞] son singulares en ambos extremos del intervalo. En cuanto a los problemas de SL
en intervalos acotados, el problema de SL relacionado con la base de Fourier es regular, mientras
que los relacionados con la base de Legendre y con la base de Chebyshev son singulares en ambos
lı́mites, ya que en esos casos se cumple p(±1) = 0. El carácter regular o singular del problema de
SL relacionado con la base de Jacobi depende de los valores de los exponentes α y β. En cuanto
al problema que da lugar a la base de Laguerre, aparte de ser singular en x = +∞ este problema
también es singular en x = 0, ya que p(x) se anula en dicho punto.
La teorı́a de Sturm-Liouville (que por limitaciones de tiempo no podemos revisar más a fondo
en este curso) establece que el comportamiento asintótico de los autovalores y autofunciones de SL
regulares en el lı́mite n → ∞ está dado por
( ∫ b√ )2 ( √
√ ∫ x w(x)
)
w(x)
λn ∼ nπ/ dx , φn (x) ∼ An sen λn dx (1.24)
a p(x) a p(x)

Por tanto si empleamos una base correspondiente a un problema de SL regular con condiciones
de contorno Dirichlet homogéneas en a y b, pero la solución f (x) buscada no se anula en alguno
de los extremos del intervalo, entonces sustituyendo Ec. (1.24) en Ec. (1.23) vemos que cn decrece
como 1/n en el lı́mite n → ∞. Esto significa que tenemos convergencia algebraica de orden 1, lo cual
es demasiado lento. Por el contrario, si f (x) cumple condiciones de contorno homogéneas en a y b
(f (a) = f (b) = 0), entonces una nueva integración por partes en Ec. (1.20) muestra que si, o bien
h(a) ̸= 0 o bien h(b) ̸= 0, entonces cn decrece como n−3 en el lı́mite n → ∞, en cuyo caso tendremos
convergencia algebraica de orden 3, pero todavı́a estamos lejos de tener convergencia exponencial.
Para obtener una convergencia algebraica de orden 4 en el caso que estamos considerando serı́a
necesario garantizar que h(a) = h(b) = 0, lo cual implica que las derivadas de orden superior de
f (x) deben cumplir ciertas condiciones de contorno adicionales.
Esta situación se repite de manera sucesiva, de tal forma que, en general, cuando se realizan
desarrollos espectrales en términos de bases definidas por problemas de Sturm-Liouville regulares,
la velocidad de convergencia será sólo algebraica a menos que la solución buscada f (x) y todas
sus (infinitas) derivadas cumplan ciertas condiciones de contorno especı́ficas en los puntos a y
b. Normalmente no será posible garantizar que f (x) y sus derivadas cumplan este conjunto de
condiciones, excepto si el problema que estamos intentando resolver cumple las mismas condiciones
de contorno que el problema de SL regular que define la base empleada. Esto sólo será posible en
casos sencillos muy concretos, como p. ej. problemas con condiciones de contorno periódicas.
Sin embargo, si p(a) = 0 entonces no necesitamos imponer ninguna condición de contorno sobre
f (x) en x = a para obtener el resultado buscado cn ≪ φ′n /λn con n → ∞. De la misma manera,
si p(x) se anula en x = b, entonces no necesitamos imponer ninguna condición de contorno sobre
f (x) en x = b. Finalmente, si p(x) se anula en ambos extremos del intervalo (p(a) = p(b) = 0)
el argumento anterior puede repetirse indefinidamente (suponiendo que f (x) sea suave), de donde
se deduce que en ese caso cn tiende a cero más rápido que cualquier potencia de 1/λn , es decir,
tenemos convergencia exponencial.
Por tanto, la velocidad de convergencia de los desarrollos espectrales basados en autofunciones
de problemas de Sturm-Liouville singulares en ambos extremos del intervalo está condicionada
solamente por las propiedades de suavidad de la función desarrollada, pero no por las condiciones
de contorno del problema. Por el contrario, en los desarrollos basados en autofunciones de problemas
de Sturm-Liouville regulares la velocidad de convergencia no depende sólo de la suavidad de f (x),
sino también de las condiciones de contorno del problema, lo cual en general, hará que sea imposible
obtener la convergencia exponencial.
1.4. BIBLIOGRAFÍA 13

La conclusión importante de este análisis es que sólo deben emplearse bases de autofunciones
de problemas de Sturm-Liouville singulares, excepto en casos muy especı́ficos, como por ejemplo
problemas con condiciones de contorno periódicas, en cuyo caso se debe emplear (obviamente) la
base de Fourier.

El fenómeno de Gibbs
Una velocidad de convergencia algebraica refleja que, o bien la función que estamos desarrollando
no es suave en algún punto, o bien que la base espectral empleada no es compatible con alguna
de las condiciones de contorno del problema, en cuyo caso el desarrollo no puede converger a la
solución buscada en el punto (x = a, x = b o ambos) donde la base espectral es incompatible
con las condiciones de contorno del problema, lo cual equivale a un comportamiento no suave
en dicho extremo del intervalo [a, b]. Esto es lo que sucede por ejemplo al desarrollar la función
f (x) = x con x ∈ [0, 2π] en términos de la base de Fourier. En este caso se observa que el desarrollo
converge a f (x) en el interior del intervalo, pero no cerca de los lı́mites, donde se aprecian fuertes
oscilaciones. Si aumentamos el número de componentes espectrales observamos que la amplitud de
estas oscilaciones no decrece, es decir, el desarrollo no está convergiendo a la solución buscada en
los extremos del intervalo.
Siempre que se intenta desarrollar una función que no es suave en términos de una base espectral
de funciones suaves se observa este tipo de oscilaciones, que se conocen como el fenómeno de
Gibbs. En la práctica es muy importante saber reconocer este tipo de comportamiento, ya que nos
indica que la función que estamos intentando aproximar no es suave, es decir, que o bien la propia
función desarrollada o bien alguna de sus derivadas tiene una discontinuidad. Cuando observemos
el fenómeno de Gibbs en alguno de los extremos del intervalo lo más probable es que hayamos hecho
una mala elección de base espectral. Por el contrario, si este fenómeno aparece en el interior del
intervalo entonces puede ser indicativo de que la función que estamos aproximando es, realmente, no
suave en algún punto del interior del intervalo. Más adelante en este curso veremos qué estrategias
pueden emplearse para resolver este tipo de problemas.

1.4. Bibliografı́a
Las notas de este tema se han tomado principalmente de

D. Gottlieb and S. A. Orszag, Numerical Analysis of Spectral Methods: Theory and Applica-
tions, Society For Industrial and Applied Mathematics (SIAM), 1977
14 CAPÍTULO 1. INTRODUCCIÓN A LOS MÉTODOS ESPECTRALES
Capı́tulo 2

Galerkin and Orthogonal Collocation


Methods

In general, spectral and pseudo-spectral methods are based on Approximation Theory [7, 8, 10]
in the context of Hilbert spaces [4, 5, 29]. For a general review on spectral and pseudo-spectral
methods see [12, 18]. For a review on these methods with applications in Chemical Engineering
see [27], and with applications in Computational Fluid Dynamics see [13, 15, 24]. The basic idea is
shared by all the spectral methods, and can be introduced by means of a general example. Let us
consider the following evolution equation in 1+1 dimensions
∂f
= H(f ) (2.1)
∂t
where the dependent variable is a function of time (t) and space (x), f = f (x, t), and where H is
an evolution operator. We will assume that H is, in principle, a time-dependent non-linear integro-
differential operator with respect to space, but that it does not involve time derivatives or integrals
( ∫ )
∂f ∂ 2 f
H = H t, x, f, , , f (x, t) dx (2.2)
∂x ∂x2
Let us assume that the former Partial Differential Equation (pde) is to be solved for t > 0 in
the spatial domain a < x < b, and that the unknown function f is square integrable in that domain
at all times ∫ b
∥f ∥2 = W (x) |f (t, x)|2 dx < ∞ ∀t > 0 (2.3)
a
with respect to a certain weight function

W (x) > 0 ∀x ∈ [a, b] (2.4)

The set of functions that fulfill equation (2.3) form a Hilbert space, called the Lebesgue square
integrable functions space, usually noted by L2W [a, b]. The properties of Hilbert spaces are well
known, and will not be revised here. The key property of interest in spectral analysis is that any
continuous function f in L2W [a, b], with bounded total variation, is given by its expansion with
respect to any complete basis {φi }∞ 2
i=1 of LW [a, b], that is to say


f (x) = ci φi (x) ∀f ∈ L2W [a, b] (2.5)
i=1

15
16 CAPÍTULO 2. GALERKIN AND ORTHOGONAL COLLOCATION METHODS

The former result holds for any complete basis {φi }∞ 2


i=1 of LW [a, b]. In particular, if the basis
is orthonormal with respect to the scalar product ((φi , φj )) defined by integration in [a, b] with
weight function W
∫ b
(φi , φj ) = W (x) φi (x) φj (x) dx = δij (2.6)
a
(where δij is the Kronecker delta) then, the coefficients of the expansion of f are given by the
spectral projection of f over the basis
∫ b
ci = W (x) φi (x)f (x) dx (2.7)
a

The idea behind spectral methods is to use equation (2.5) to express the spatial dependence of
f in terms of a certain complete basis, while the time dependency is transferred to the coefficients
of the expansion. So far the method is exact, and can only be used if the evolution operator H is
linear and separable, in which case this leads to the usual method of “separation of variables”. In a
more general case, the former approach can still be used (as an approximated method) by means
of a truncation in the expansion, at a certain finite number (N ) of spectral components

∑ ∑
N
f (x, t) = ci (t) φi (x) ≃ fN (t, x) = ci (t) φi (x) (2.8)
i=1 i=1

If N is large enough, it is reasonable to expect that the former truncated expansion will be
a good approximation. In principle, any complete basis set of L2W [a, b] will lead to a convergent
expansion. However, the convergence will be much faster if a good choice of basis is made. The
Approximation Theory provides the conditions needed for the former expansion to have exponential
convergence rate, in which case the error decreases to zero as N increases faster than N −p for any
p > 0 [12, 18]. The above mentioned conditions relate the choice of basis to the boundary conditions
of the problem, and impose smoothness restrictions on the function f and its derivatives over the
interval [a, b]. When these conditions are met convergence rates are very high, enabling spectral
methods to produce qualitative results with a number of components as low as N ∼ 3 − −5, and
very accurate results can be obtained with N in the range of 10 − −15 (a factor 2 applies in this
estimation if the spatial domain is unbounded).
The choice of basis is a crucial issue in spectral methods, which will not be discussed here in
detail [12]. To summarize, the choice of basis is in general dictated by the boundary conditions.
Whenever it is possible to find a complete basis in which all the elements fulfill the boundary
conditions of the problem, that is the best choice (for instance, the Fourier basis is the best choice if
periodic boundary conditions apply). However, in most cases in engineering the boundary conditions
are time dependent variables that have to be solved as a part of the problem, and a basis that fulfills
them at all times can not be found in an easy way. In that case, without additional information
about the shape of f , the best choice is the basis given by the Chebyshev polynomials, assuming
that the spatial domain of interest is finite. In the case of a semi-infinity (respectively infinity)
domain, the Laguerre (respectively Hermite) basis is a possible choice, although a mapping of the
initial interval to [−1, 1] and then use the Chebyshev basis is also a possibility. The basis sets
frequently used in spectral theory are given by the eigenfunctions of a Sturm-Liouville problem [4].
The basis sets that can be used independently of the type of boundary conditions that apply (as
for instance Chebyshev, Laguerre and Hermite) have in common that they are the eigenfunctions
of a singular Sturm-Liouville problem [18]. The Chebyshev basis has the particular property of
minimizing the maximal local error.
2.1. GALERKIN METHOD 17

Once a basis has been chosen, by differentiating and integrating with respect to x the former
expansion (equation (2.8)), one may derive rules to compute the required spatial derivatives and
integrals in terms of the coefficients of the spectral expansion ci (t)

∂f ∑
N
≃ ci (t) φ′i (x)
∂x
i=1

∂2f ∑
N
≃ ci (t) φ′′i (x)
∂x2
i=1
∫ x ∑N ∫ x
k(x′ ) f (t, x′ ) dx′ ≃ ci (t) k(x′ ) φi (x′ ) dx′ (2.9)
a i=1 a

So far all the spectral methods are alike. The difference between them arises in the way each
one generates the evolution equations needed to calculate the coefficients of the spectral expansion
as functions of time. In all the spectral methods this is done by minimizing the error (or residual)
EN , defined as
∂fN
EN (t, x) = − H (fN ) (2.10)
∂t
which is produced as a consequence of the truncation in the expansion of f . For this reason spectral
methods are also called Methods of Weighted Residuals. Each spectral method has a particular way
to accomplish the minimization of the residual EN , in the next two sections the two most widely
used spectral methods (Galerkin and Orthogonal Collocation) will be introduced, together with
the Tau method for the boundary conditions.

2.1. Galerkin method


The Galerkin method can be applied in those cases in which it is possible to find a complete
basis ({φi }∞
i=1 ) that identically fulfills the boundary conditions of the problem at x = a and x = b.
Choosing that basis for the truncated expansion, the evolution of f is dictated by equation (2.1) and
the boundary conditions are identically fulfilled. In the Galerkin method the evolution equations
of the coefficients ci (t) are obtained by imposing the condition that the residual EN is orthogonal
to all the functions included in the expansion

(φi , EN ) = 0, i = 1, . . . , N (2.11)

Thus, the evolution equations of the coefficients of the truncated expansion of f are given by the
spectral projection of the evolution equation (2.1) over the truncated basis
( )
∂fN
φi , = (φi , H(fN )) , i = 1, . . . , N (2.12)
∂t

The initial conditions needed to integrate the former system of N Ordinary Differential Equations
(odes) are determined by inserting the initial conditions of f in the expansion (equation (2.8)) and
projecting onto each basis element. In the cases in which it can be applied, the Galerkin method
exhibits very fast convergence as N increases.
The justification of the Galerkin method comes from the fact that the former evolution equations
(2.12) minimize the norm of the residual EN as a function of time (∥EN ∥2 = (EN , EN )). In this way
18 CAPÍTULO 2. GALERKIN AND ORTHOGONAL COLLOCATION METHODS

the Galerkin method provides the least-squares approximation of f in the finite-dimensional sub-
space spanned by the truncated basis used. Hence, the Galerkin method is, in this way, the optimal
choice, specially for linear problems. However, when applied to nonlinear problems the spectral
projection of the nonlinear terms of H may produce an amplification of the residual, and in that
case the method can exhibit slow convergence or even no convergence at all. Besides the difficulties
that arise in nonlinear problems, the spectral projection of the evolution operator H involves the
calculation of several integrals, which, in the most general case, will have to be performed by means
of a quadrature formula at every time step, introducing an additional computational load.

2.1.1. Galerkin-Tau method


In many practical problems it is not possible to find in an easy way a complete basis that
fulfills, for all times, the boundary conditions. In that case the Galerkin method can still be applied,
introducing a small modification called the Tau method (sometimes Galerkin-Tau method).
The Tau method consists in performing the truncated expansion in terms of any basis, introdu-
cing an additional term for each boundary condition that is not identically fulfilled (for instance, 2
in this case)

N +2
f (x, t) ≃ ci (t)φi (x) (2.13)
i=1
Then, the evolution equations of these N +2 coefficients are given simply by the former N equations
(2.12) plus the two boundary conditions that are not identically fulfilled.

2.2. Orthogonal Collocation Method


While in the Galerkin method the norm of the residual is minimized with respect to the norm
defined by the scalar product (f, g), in the Orthogonal Collocation Method (ocm) the norm of the
residual is forced to be zero with respect to the norm defined by a different scalar product. Namely,
in the Orthogonal Collocation Method the norm of the residual is zero with respect to the scalar
product defined by the Gaussian Quadrature Formula corresponding to the interval [a, b] and the
weight function W (this scalar product will be denoted here with angular brackets ⟨f, g⟩)

N ∫ b
⟨f, g⟩ = Wi f (xi ) g(xi ) ≃ W (x) f (x) g(x) dx = (f, g) (2.14)
i=1 a

where {xi }N
i=1 are the abscissae (a < xi < b) and {Wi }i=1 are the weights (Wi > 0) of the quadrature
N

formula.
It can be shown that Orthogonal Collocation is equivalent to Galerkin with the substitution
(f, g) → ⟨f, g⟩ (2.15)
Thus, Orthogonal Collocation also provides the least-squares approximation of f in the finite-
dimensional space spanned by the basis, but with the integrals approximated by the quadrature
formula associated to the chosen basis.
According to the theory of Gaussian Quadratures, once the interval [a, b] and the weight function
(W = W (x)) have been chosen, the abscissae of the best quadrature formula are given by the N
roots of the basis element φN +1 (where the set {φi }N 2
i=1 is orthogonal in LW [a, b])

φN +1 (xi ) = 0, i = 1, . . . , N (2.16)
2.2. ORTHOGONAL COLLOCATION METHOD 19

and the weights can be easily found taking into account that the former quadrature formula is
exact for all polynomials of degree less than or equal to 2N − 1 (note that in general Wi ̸= W (xi )).
In the Orthogonal Collocation Method the evolution equations of the coefficients ci (t) are ob-
tained by imposing that the norm of the residual is zero with respect to the former quadrature
formula, which is accomplished, simply, if the residual is zero at the abscissae of the quadrature
formula
EN (t, xi ) = 0, i = 1, . . . , N (2.17)

Hence, in the ocm the evolution equations of the coefficients of the truncated expansion of f
are given by the initial evolution equation evaluated at the abscissae of the quadrature formula

∂f
= H(f )|x=xi i = 1, . . . , N (2.18)
∂t x=xi

The initial conditions needed to integrate this system of odes are directly given by the initial
conditions of f in equation (2.1).
The Orthogonal Collocation Method is considerably easier to implement than the Galerkin
method, and it is also less computationally demanding, since it does not involve the calculation
of spectral projections of the evolution equation. On the other hand, because the nonlinearities
of H are evaluated locally in the evolution equations (2.18), the Orthogonal Collocation Method
is specially well suited for nonlinear problems, where it has proved to be a very powerful tool. In
the cases where both methods can be applied, it has been seen that the convergence rate of the
Orthogonal Collocation Method is comparable to that of the Galerkin method. The former reasons
lead us to consider ocm as the preferred spectral method for nonlinear problems.

2.2.1. Orthogonal Collocation-Tau method


In the former discussion it has been implicitly assumed that the basis {φi }N
i=1 identically fulfills
the boundary conditions of the problem. If it is not possible to find such a basis (which is usually
the case unless the boundary conditions are very simple), the Orthogonal Collocation Method can
still be applied by means of the Tau method. That is accomplished by introducing, in the original
expansion (equation (2.8)), an additional term for each boundary condition not identically fulfilled,
and including the corresponding boundary conditions in the former system of ordinary differential
equations (2.18). In that case, since both (respectively one) extrema of the interval [a, b] are added
to the set of abscissae, it is more convenient to use the Lobatto (respectively Radau) quadrature
formula to choose the N interior abscissae.

2.2.2. Efficient implementation of the Orthogonal Collocation Method


According to the former discussion, the ODEs system that governs the evolution of the coef-
ficients ci (t) is determined by the initial evolution equation, evaluated at the set of abscissae co-
rresponding to the best quadrature formula in [a, b] with weight function W . This set of abscissae
does not change in time. As a consequence, the most efficient way to implement the Orthogonal
Collocation Method is to perform a basis recombination of the set {φi }N i=1 , in such a way that each
coefficient ci (t) coincides with the value of f at xi . The reason for this is because in that case the
left hand side of each equation (2.18) is simply dci (t)/dt. In the following paragraph this change of
basis will be shown in detail.
20 CAPÍTULO 2. GALERKIN AND ORTHOGONAL COLLOCATION METHODS

The starting point is the spectral truncated expansion of f with respect to a given set that is
orthonormal in L2W [a, b]

N
f (x, t) = ci (t) φi (x) (2.19)
i=1

According to equation (2.18) we are only interested in the values of f at a given set of abscissae.
These values are given by


N
f (xj , t) = ci (t) φi (xj ), j = 1, . . . , N (2.20)
i=1

If we define f and c as the vectors with components fi = f (xi , t) and ci (t) respectively, and φ as
the matrix with components φij = φj (xi ), the former expression can be written in matrix form as

f = φc (2.21)

multiplying by the inverse of φ we find


N
( )
ci (t) = φ−1 ij
f (xj , t) (2.22)
j=1

inserting this in equation (2.19) we find


N ∑
N
f (x, t) = f (xi , t) ϕi (x) = fi (t) ϕi (x) (2.23)
i=1 i=1

where fi (t) = f (xi , t), and where the new basis functions {ϕj }N
j=1 are given by


N
( )
ϕj (x) = φ−1 ij
φi (x) (2.24)
i=1

In practice one does not need to perform explicitly the former change of basis, since the functions
{ϕi }N
i=1 are known beforehand. Taking into account that the new functions satisfy

ϕi (xj ) = δij (2.25)

and that, if the functions φi are polynomials, then the new functions ϕi are also polynomials, it
is clear that ϕi are the Lagrange interpolation polynomials with interpolation nodes given by the
abscissae xi
∏N
x − xi
ϕj (x) = , j = 1, . . . , N (2.26)
i=1
xj − xi
i̸=j

It is interesting to point out that, while the initial set of functions φi were orthogonal with
respect to the scalar product defined by integration, the new set ϕi are orthogonal with respect to
the scalar product defined by the quadrature formula
⟨ϕi , ϕj ⟩
(φi , φj ) = = δij (2.27)
Wi
2.3. APPLICATION IN HIGHER DIMENSIONS, COMPLEX GEOMETRIES, AND PRESENCE OF LARGE

The best way to implement the Orthogonal Collocation Method is, hence, by means of Lagrange
interpolation with nodes given by the set of abscissae of the (Gaussian, Lobatto or Radau) qua-
drature formula with weight function W in [a, b]. Inserting the expansion given in equation (2.23)
in the evolution equations (2.18) we find
dfi
= H(f )|x=xi i = 1, . . . , N (2.28)
dt
where the left hand side is completely uncoupled. Implemented this way, the Orthogonal Collocation
Method is sometimes considered as a pseudo-spectral method, because the problem is solved in terms
of the values of f in physical space, rather than in Fourier space.
The spatial derivatives and integrals that appear in the operator H can be calculated by means
of the expansion equation (2.23). However, since we are only interested in the values of these
derivatives and integrals at the given abscissae, these operations can be written in terms of matrix
multiplication. Defining the derivative matrices D(n) by

(n) dn ϕj
Dij = (2.29)
dxn x=xi

we find that
∂ n f ∑
N
(n)
= Dij fj (t) (2.30)
∂xn x=xi
j=1

Similarly, defining the integration matrix S


∫ xi
S(K)ij = K(x) ϕj (x) dx (2.31)
a

we find
∫ xi ∑
N
K(x) f (x, t) dx = S(K)ij fj (t) (2.32)
a j=1

In the former relations the derivation matrices are time independent (because the basis functions,
the abscissae and the weights are all of them time independent), and can be precalculated easily,
once and for all. Similarly the integration matrix S(K) can be easily precalculated for any time
independent kernel of interest.
As a consequence of the former relations, it is clear that any spatial derivation or integration
that appears on the operator H couples the coefficients fi (t) according to the corresponding matrix.
However, because the nonlinearities of H are evaluated on equation (2.28) locally, there is no
extra source of error or computational load in the nonlinear terms, making this method specially
appropriate for nonlinear problems.

2.3. Application in higher dimensions, complex geometries, and


presence of large gradients
Before going to the next subject, it is important to point out that the former scheme can also be
applied in higher dimensions. The basic idea is that a complete basis of L2W over an n-dimensional
domain D
D = [a1 , b1 ] × [a2 , b2 ] × · · · × [an , bn ] (2.33)
22 CAPÍTULO 2. GALERKIN AND ORTHOGONAL COLLOCATION METHODS

can be generated by tensor product of the basis of the spaces L2W [ai , bi ]. Thus, in an evolution
problem in 3+1 dimensions, for instance, the spatial dependence of f can be expanded as
∞ ∑
∑ ∞ ∑

f (x, y, z, t) = cijk (t) φ̄i (x) φ̃j (y) φ̂k (z) (2.34)
i=1 j=1 k=1

where the individual basis for each dimension are dictated by the corresponding boundary condi-
tions and, in general, will not be the same, nor the truncation number in each dimension (Nx , Ny
and Nz ), which will be dictated by the accuracy needed in each direction.
Although the number of components grows with the dimensions of the space as N n , the limita-
tion to apply the former scheme is not the number of dimensions, but the geometry of the domain
of interest, besides the smoothness conditions imposed by the spectral expansion on the dependent
variables. In general the spectral methods can only be applied in domains of simple geometry, which
in higher dimensions is an important limitation. In cases of not too complicated geometry there
are two strategies to overcome this limitation, namely the Domain Decomposition Method and the
use of mappings.
In the Domain Decomposition Method the original spatial domain, of irregular shape, is divided
into pieces of regular shape, where a basis can be easily defined by tensor product. Then, the
spectral expansion is performed independently in each sub-domain, and the evolution is calculated
introducing supplementary boundary conditions (usually continuity of fields and fluxes) at the
boundaries between sub-domains. In the strategy based on mappings, a mapping is defined to
transform the spatial domain of the original variables into a regular domain in terms of some new
variables. Once this is done, the spectral expansion is introduced in terms of the new variables.
Besides solving the problems derived from the geometry in higher dimensions, these two methods
are also used in problems in one spatial dimension to achieve more spatial resolution in special
regions, where the dependent variable can experience large variations. The Domain Decomposition
Method, in particular, is the method to use if the function under consideration (or its derivatives)
is discontinuous at a certain point, which is of great interest some areas as Fluid Mechanics or
Aerosol Science for instance.
Bibliografı́a

En este apartado se incluye la lista de referencias consultadas para elaborar estos apuntes.
Algunas de estas referencias se mencionan en el texto y pueden consultarse como bibliografı́a
complementaria avanzada de los temas en que se mencionan, las restantes se citan para dar el
debido crédito a todas las fuentes consultadas.

Análisis funcional
[1] Abellanas, L. y A. Galindo: Espacios de Hilbert. Eudema, Madrid, primera ed., 1987.

[2] Apostol, T. M.: Análisis Matemático. Reverté, Barcelona, segunda ed., 2002.

[3] Bombal, F.: Los Orı́genes del Análisis Funcional. En Historia de la Matemática en el Siglo
XIX, vol. 35-36. Real Academia de Ciencias de Madrid, 1994.

[4] Courant, R. and D. Hilbert: Methods of Mathematical Physics, vol. 1. Wiley, New York,
first ed., 1994.

[5] Dieudonne, J.: Foundations of Modern Analysis. Academic Press, New York, third ed., 1968.

[6] Escardó, E. L.: Análisis Matemático II, vol. 2. Facultad de Ciencias Universidad Nacional de
Educación a Distancia, Madrid, primera ed., 2001.

[7] Szego, G.: Orthogonal Polynomials. American Mathematical Society, eleventh ed., 2003.

[8] Timan, A. F.: Theory of Approximation of Functions of a Real Variable. Dover, 1994.

[9] Whittaker, E. T. and G. N. Watson: A Course of Modern Analysis. Cambridge University


Press, fourth ed., 1996.

[10] Zeidler, E.: Applied Functional Analysis: Applications to Mathematical Physics. Springer
Verlag, 1995.

Métodos Numéricos
[11] Barrett, R. et al.: Templates for the Solution of Linear Systems: Building Blocks for Iterative
Methods, 2nd Edition. SIAM, Philadelphia, PA, first ed., 1994. http://netlib2.cs.utk.
edu/linalg/html_templates/Templates.html.

23
24 BIBLIOGRAFÍA

[12] Boyd, J. P.: Chebyshev and Fourier Spectral Methods. Dover, New York, second ed., 2000.
http://www-personal.engin.umich.edu/~jpboyd/BOOK_Spectral2000.html.

[13] Canuto, C. et al.: Spectral Methods in Fluid Dynamics. Springer Verlag, Berlin and New York,
second ed., 1988.

[14] Ferziger, J. H. and M. Peric: Computational Methods for Fluid Dynamics. Springer Verlag,
2001.

[15] Finlayson, B. A.: The Method of Weighted Residuals and Variational Principles. With Appli-
cation in Fluid Mechanics, Heat and Mass Transfer. Academic Press, 1972.

[16] Fletcher, C. A. J.: Computational Techniques for Fluid Dynamics: Fundamental and General
Techniques, vol. 1. Springer Verlag, second ed., 1991.

[17] Fletcher, C. A. J.: Computational Techniques for Fluid Dynamics: Specific Techniques for
Different Flow Categories, vol. 2. Springer Verlag, second ed., 1991.

[18] Gottlieb, D. and S. A. Orszag: Numerical Analysis of Spectral Methods. Theory and Applica-
tions. Society for Industrial and Applied Mathematics, 1977.

[19] Hildebrand, F. B.: Introduction to Numerical Analysis. Dover, New York, second ed., 1987.

[20] Hirsch, C.: Numerical Computation of Internal and External Flows: Computational Methods
for Inviscid and Viscous Flows, vol. 2. Wiley, 1989.

[21] Hirsch, C.: Numerical Computation of Internal and External Flows: Fundamentals of Numer-
ical Discretization, vol. 1. Wiley, 1989.

[22] Peyret, R. and T. D. Taylor: Computational Methods for Fluid Flow. Springer Verlag, sec-
ond ed., 1985.

[23] Pozrikidis, C.: Fluid Dynamics: Theory, Computation, and Numerical Simulation. Kluwer,
2001.

[24] Quarteroni, A. and A. Valli: Numerical Approximation of Partial Differential Equations.


Springer Verlag, second ed., 1994.

[25] Smith, G. D.: Numerical Solution of Partial Differential Equations: Finite Difference Methods.
Oxford University Press, third ed., 1986.

[26] Villadsen, J.: Selected approximation methods for chemical engineering problems. Instituttet
For Kemiteknik, 1970.

[27] Villadsen, J. and M. L. Michelsen: Solution of Differential Equation Models By Polynomial


Approximation. Prentice-Hall, 1978.
25

Ecuaciones Diferenciales
[28] Boyce, W. E. and R. C. DiPrima: Elementary Differential Equations and Boundary Value
Problems. Wiley, sixth ed., 1996.

[29] Courant, R. and D. Hilbert: Methods of Mathematical Physics, vol. 2. Wiley, New York,
first ed., 1994.

[30] DuChateau, P. C. and D. Zachmann: Schaum’s Outline of Partial Differential Equations.


Schaum Outline Series. McGraw-Hill, 1986.

[31] Garabedian, P. R.: Partial Differential Equations. American Mathematical Society, 1999.

[32] Rhee, H.-K., R. Aris, and N. R. Amundson: First-Order Differential Equations: Theory and
Application of Hyperbolic Systems of Quasilinear Equations, vol. 2. Dover, 2001.

[33] Rhee, H.-K., R. Aris, and N. R. Amundson: First-Order Differential Equations: Theory and
Applications of Single Equations, vol. 1. Dover, 2001.

[34] Stakgold, I.: Green’s Functions and Boundary Value Problems. Wiley, second ed., 1997.

[35] Stephenson, G.: An Introduction To Partial Differential Equations For Science Students. Long-
man, 1970.

[36] Weinberger, H. F.: First Course in Partial Differential Equations with Complex Variables and
Transform Methods. Dover, 1995.

Métodos perturbativos y análisis de simetrı́a


[37] Bender, C. M. and S. A. Orszag: Advanced Mathematical Methods for Scientists and Engineers:
Asymptotic Methods and Perturbation Theory. Springer Verlag, 1999.

[38] Guckenheimer, J. and P. Holmes: Nonlinear Oscillations, Dynamical Systems, and Bifurcations
of Vector Fields. Springer Verlag, 1997.

[39] Kevorkian, J.: Partial Differential Equations: Analytical Solution Techniques. Springer Verlag,
second ed., 1999.

[40] Kevorkian, J. and J. D. Cole: Multiple Scale and Singular Perturbation Methods. Springer
Verlag, 1995.

[41] Nayfeh, A. H.: Perturbation Methods. Wiley Interscience, 2000.

[42] Olver, P. J.: Applications of Lie Groups to Differential Equations. Springer Verlag, second ed.,
1994.

[43] Van Dyke, M.: Perturbation Methods in Fluid Mechanics: Applied Mathematics and Mechanics.
The Parabolic Press, 1975.
26 BIBLIOGRAFÍA

Libros de tablas y enciclopedias en Internet


[44] Abramowitz, M. and I. A. Stegun: Handbook of Mathematical Functions with Formulas,
Graphs, and Mathematical Tables. Dover, New York, tenth ed., 1974.

[45] Spiegel, M. R. y L. Abellanas: Fórmulas y Tablas de Matemática Aplicada. McGraw-Hill,


1997.

[46] Wales, J. y cols. (eds.): Wikipedia, la enciclopedia libre. The Wikimedia Foundation, Inc., since
2001. http://es.wikipedia.org/.

[47] Wales, J. et al. (eds.): Wikipedia, the free encyclopedia. The Wikimedia Foundation, Inc.,
since 2001. http://www.wikipedia.org/.

[48] Weisstein, E. (ed.): Eric Weisstein’s World of Physics. Wolfram Research Inc., since 1999.
http://scienceworld.wolfram.com/physics/.

[49] Weisstein, E. (ed.): Eric Weisstein’s World of Science. Wolfram Research Inc., since 1999.
http://scienceworld.wolfram.com/.

[50] Weisstein, E. (ed.): Mathworld: the web’s most extensive mathematics resource. Wolfram
Research Inc., since 1999. http://mathworld.wolfram.com/.

Otras referencias
LATEX
[51] http://wikipedia.org/wiki/LaTeX.

[52] Cascales Salinas, B. y cols.: LATEX una imprenta en sus manos. Aula Documental de Investi-
gación, 2000.

[53] Kopka, H. and P. W. Daly: A Guide to LATEX: Document Preparation for Beginners and
Advanced Users. Addison-Wesley, third ed., 1999.

[54] Oetiker, T. et al.: The Not So Short Introduction To LATEX 2ε . Or LATEX 2ε in 157 min-
utes. Free Software Foundation., 5.01 ed., 2011. http://www.ctan.org/tex-archive/info/
lshort/english/lshort.pdf.

Linux
[55] http://www.linux.org.

[56] http://www.gnu.org.

[57] http://wikipedia.org/wiki/Linux.

[58] Siever, E. et al.: Linux in a Nutshell. O’Reilly, sixth ed., 2009.

Anda mungkin juga menyukai