Anda di halaman 1dari 59

Procesos estocsticos y ecuaciones diferenciales:

una introduccin

Fabricio Maci y Gerardo Oleaga

2007
Disponible en: http://dcain.etsin.upm.es/ fabricio/Docencia.html

ndice
1. Repaso de la teora bsica de probabilidades

1.1.

Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2.

Propiedades bsicas.

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3.

Probabilidad condicional e independencia . . . . . . . . . . . . . . . . . . . . . .

1.4.

Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.5.

Vectores aleatorios

1.6.

Transformacin de variables aleatorias

. . . . . . . . . . . . . . . . . . . . . . .

10

1.7.

Valor esperado y momentos

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

1.8.

Distribuciones condicionales

. . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

1.9.

Funciones generatrices

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2. La caminata aleatoria.

16

2.1.

El proceso aleatorio ms simple en una dimensin. . . . . . . . . . . . . . . . . .

16

2.2.

Solucin explcita discreta y su comportamiento asinttico

. . . . . . . . . . . .

16

2.3.

La funcin densidad de probabilidad

. . . . . . . . . . . . . . . . . . . . . . . .

17

2.3.1.

Pared reejante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

2.3.2.

Pared absorbente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

2.4.

Una ecuacin en diferencias para la densidad de probabilidad . . . . . . . . . . .

21

2.5.

La caminata aleatoria como lmite de pasos independientes: El teorema de LaplaceDe Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3. El proceso de Wiener.

23

25

3.1.

Denicin y propiedades bsicas del proceso de Wiener. . . . . . . . . . . . . . .

25

3.2.

La medida de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

4. Interpretacin estocstica de esquemas numricos para EDP'S.

29

4.1.

La ecuacin del calor: solucin numrica. . . . . . . . . . . . . . . . . . . . . . .

29

4.2.

La ecuacin del calor con una fuente

. . . . . . . . . . . . . . . . . . . . . . . .

31

4.3.

La ecuacin del calor con potencial

. . . . . . . . . . . . . . . . . . . . . . . . .

33

5. Introduccin

35

6. Construccin de una caminata aleatoria innitesimal

35

7. El movimiento Browniano y la medida de Wiener

37

7.1.

Sobre el espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

7.2.

El teorema de Riesz-Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40

7.3.

La construccin de la medida de Wiener

. . . . . . . . . . . . . . . . . . . . . .

41

7.4.

La continuidad de las trayectorias del movimiento Browniano . . . . . . . . . . .

42

8. Frmula de Feynman-Kac y ecuaciones en derivadas parciales


8.1.
8.2.
8.3.

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
La frmula de Feynman-Kac para + V . . . . . . . . . . . . . . . . . . . .
2
La frmula de Feynman para la ecuacin de Schrdinger . . . . . . . . . . . . .

9. Aplicacin al estudio de los autovalores de un operador elptico


9.1.
9.2.

1
Los autovalores del operador de Schrdinger + V (x) . . . . . . . . . . . .
2
Aplicacin de Feynman-Kac al estudio del comportamiento asinttico de los au-

46
46
46
48

50
50

tovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

9.2.1.

54

Aplicacin de la frmula de Feynman-Kac


2

. . . . . . . . . . . . . . . . .

9.2.2.
9.2.3.

El puente Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

t(/2V )
Estimaciones de tr e
. . . . . . . . . . . . . . . . . . . . . . . .

A. La ecuacin del calor: solucin analtica.

55
56

57

1. Repaso de la teora bsica de probabilidades


1.1. Probabilidad
Al construir un modelo probabilstico tenemos en mente la idea de la

frecuencia

con la que

ocurren ciertos sucesos cuya naturaleza aleatoria nos impide conocer con detalle las leyes que
los gobiernan. Ejemplos de este tipo de fenmenos son el resultado de arrojar una moneda, el
ganador de una carrera de caballos o el comportamiento del precio de una accin. La abstraccin
y generalizacin de estas situaciones y conceptos, nos llevan a las siguientes deniciones:

Experimento. Cualquier procedimiento que nos proporcione un conjunto bien denido de


experimento.
2) Espacio muestral. El conjunto de todos los resultados posibles de un experimento se llama
el espacio muestral y se denota por . Un resultado particular (pero no especicado) se suele

1)

resultados posibles se llama

denotar

Eventos. Un evento es un subconjunto del espacio muestral . En particular, es llamado


c
el evento seguro y su complemento, denotado por = , se llama evento imposible.
4) Espacio de eventos (o sigma lgebra). Una coleccin de eventos se llama espacio de eventos,
3)

denotada por
1.

est en

2. si

3. si

An

5)

F,

F,

si satisface:

F;

est en

F,

estn en

entonces

para

Ac

est en

n = 1, 2, . . . ,

F;
entonces

n=1 An

est en

F.

Funcin de probabilidad. Una funcin P (), denida sobre los eventos en un espacio

es una probabilidad, si:


1.

P () = 1;

2.

0 P (A) 1

para cualquier evento

A F.

Aj Ak = para j 6= k ,
X
P (An ) ,
P (nI An ) =

3. (Axioma de aditividad numerable) si

entonces

nI
donde
6)

(An ; n I)

puede ser una coleccin nita o innita numerable de eventos.

Espacio de probabilidad.

La funcin

P ()

puede ser llamada una medida de proba-

bilidad, o una distribucin de probabilidad. La estructura completa consistente en


muestral),
un

(sigma lgebra de eventos) y

espacio de probabilidad.

(espacio

(funcin de probabilidad), es identicada como

1.2. Propiedades bsicas.


Listamos a continuacin algunas propiedades elementales que pueden demostrarse como
ejercicio a partir de las deniciones.
P1:

P (Ac ) = 1 P (A) .
P2:

P () = 0 .
4

P3:

P (A B) = P (A) + P (B) P (A B) .
P4:

P (A) P (B) ,
P5 (

si

AB.

Identidad de inclusin-exclusin ):
P (nr=1 Ar ) =

n
X

P (Ar )

r=1
P6 (

Propiedad de continuidad ):

An An+1 ,

P (Ar As ) + + (1)n+1 P (nr=1 Ar ) .

r<s

An

supongamos que

es una sucesin de conjuntos tales que

entonces se verica que:


Si

lm An = A ,

entonces

lm P (An ) = P (A) .

Aqu el lmite de los conjuntos debe entenderse del siguiente modo: dado
n
sucientemente grande tal que a r=1 Ar .
P7 (

Desigualdad de Boole ) Para eventos cualesquiera A1 , . . . , An


P

(nr=1 Ar )

n
X

a A,

existe un

tenemos que:

P (Ar ) .

r=0

Ejercicio 1.

Prubense las propiedades P1-P7.

1.3. Probabilidad condicional e independencia


La probabilidad condicional cambia el espacio muestral

a un evento

B,

de modo que las

A se reeren al evento B . Es decir, medimos el


A y B al mismo tiempo y hallamos la proporcin
respecto del nmero de veces que ocurri B .
Probabilidad condicional. Si P (B) > 0, la probabilidad condicional de que A ocurra
dado que B ocurre se denota por P (A|B), y se dene por:
proporciones del nmero de veces que ocurre
nmero de veces que ocurren los eventos

P (A|B) = P (A B)/P (B) .


Para entender intuitivamente la denicin podemos identicar la probabilidad con la frecuencia

fX es la frecuencia
con la que ocurre el evento X , entonces el nmero de veces que ocurren A y B al mismo tiempo
relativa con la que ocurren los eventos al realizar un nmero

de pruebas. Si

es:

N fAB
Mientras que el nmero de veces que ocurre

es

N fB
y el cociente entre ambas es la denicin de probabilidad condicional desde el punto de vista
intuitivo de las frecuencias:

fA|B =
Con ms generalidad, an cuando

P (B) = 0

fAB
.
fB

admitimos la llamada

P (A B) = P (A|B)P (B) .
5

ley de multiplicacin :

Es importante tener en cuenta que la correspondencia

A 7 P (A|B)
es una funcin de probabilidad para los eventos en

y satisface todas las propiedades de la

denicin.

Identidades importantes. La denicin de probabilidad condicional, junto con las reglas

bsicas de la probabilidad, proveen varias identidades tiles.

Regla de particin. La forma ms simple es:

P (A) = P (A|B)P (B) + P (A|B c )P (B c ) .


Con ms generalidad, si

Bj Bk =

j 6= k , y A r Br ,
X
P (A) =
P (A|Br )P (Br ) .
para

luego

Regla de multiplicacin.

La forma elemental

P (A B) = P (A|B)P (B)

puede extenderse

fcilmente a la forma ms general


n
P n+1
r=1 Ar = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) . . . P (An+1 | r=1 Ar ) .
Finalmente, si combinamos la regla de particin con la denicin de probabilidad condicional, obtenemos la conocida:

Regla de Bayes. Si Aj Ak = para j 6= k, B nk=1 Ak y P (B) > 0, entonces


P (B|Ar )P (Ar )
.
P (Ar |B) = Pn
k=1 P (B|Ak )P (Ak )

Ejercicio 2.
bilidad

0,99

(Uso de la regla de Bayes) Un test mdico detecta una enfermedad con proba-

cuando se le aplica a una persona enferma y con probabilidad

0,01

cuando se lo

aplica a una persona sana. Cul es la probabilidad de tener efectivamente la enfermedad si el


test da positivo y la enfermedad afecta a una persona cada 100? y si la enfermedad afectara
5
a una persona cada 10 ?
La idea de condicionar nos lleva a un concepto muy importane: la

Independencia.
a)]Los eventos

son

independientes

independencia de sucesos.

si

P (A B) = P (A)P (B) .
Una

familia

de eventos

(Ai , 1 i n)

es independiente si

P (Ai1 Ai2 Air ) = P (Ai1 )P (Ai2 ) . . . P (Air )


para cualquier seleccin

Ejercicio 3.

1 i1 < i2 < . . . < ir n.

Se arrojan 3 dados. Se denen los eventos

A := El
B := El
C := El

primero y el segundo muestran el mismo resultado.


segundo y el tercero muestran el mismo resultado.
primero y el tercero muestran el mismo resultado.

Mustrese que los eventos son dos a dos independientes pero que no son independientes como
familia de eventos.
6

1.4. Variables aleatorias


Usualmente no estamos interesados en los resultados

del espacio muestral

perimento aleatorio sino en algn resultado numrico que dependa de

de un ex-

Por ejemplo, en una

apuesta uno est ms interesado en la ganancia o prdida resultante y no tanto en el resultado


en s. Al asignar un nmero

X() a cada resultado, transferimos en forma natural la denicin

de probabilidad a subconjuntos de la recta real, ya que estamos ms interesados en la probabilidad de que

X()

tome valores en distintos subconjuntos de

R.

Denotaremos a las variables

aleatorias por letras maysculas, mientras que sus valores posibles sern escritos con letras
minsculas. Pasamos a las deniciones.
a)b)
1.

Variable aleatoria. Dado y una funcin de probabilidad P , una variable aleatoria

es una funcin
2.

X(),

denida sobre

tomando valores en

R.

Funcin de distribucin. La funcin de distribucin FX (x) de la variable X est denida como

FX := P ({ : X() x})
y tambin se denota directamente por

P (X x).

Ntese que estamos asumiendo que el

{ : X() x} F para todo valor de x R. Esto es equivalente a que la


X sea medible en la -lgebra F . Asumiremos que este es el caso para las variables

conjunto
funcin

consideradas.
3.

Variables aleatorias discretas. Una variable discreta


D

to numerable

de

probabilidad de que

R. Comnmente es un subconjunto
X asuma un valor x determinado se

toma valores en un subconjunde nmeros enteros. Luego, la


denota como

fX (x) = P (X = x) := P ({ : X() = x}) .


La funcin

fX

se llama

funcin densidad de probabilidad

de la variable

X.

Ejemplos de variables discretas:

a ) Distribucin binomial. Si se realizan n pruebas independientes de un experimento


p y F (de fracaso) con
(1p), entonces la variable X denida por el nmero de xitos obtenidos

cuyos resultados son slo dos, E (de xito) con probabilidad


probabilidad
en las

pruebas tiene la distribucin:


fX (k) =

n
k

pk (1 p)nk ,

0 k n.

Nos referiremos a ella como la distribucin Binomial con parmetros


denotaremos por

B(n, p).

Para indicar que una variable

y la

tiene esta distribucin se

usa la notacin

X B(n, p) .

b ) Distribucin de Poisson. Cuando n es grande y p pequeo de modo que lmn np =


,

los valores de la distribucin binomial convergen a

fX (k) =

e k
.
k!

Nos referiremos a ella como Poisson(). Esta distribucin est asociada al nmero de
xitos que pueden ocurrir en un intervalo temporal dado, cuando los mismos pueden
ocurrir en cualquier instante del intervalo. Ejemplos pueden obtenerse en el nmero
de llamadas recibidas en un intervalo dado; en este caso el parmetro
el nmero esperado de llamadas en ese intervalo.
7

representa

c ) Distribucin geomtrica. En una sucesin de pruebas independientes con probabilidad de xito

en cada intento y probabilidad

(1 p)

de fallo, sea

el nmero

de pruebas que se realizan hasta obtener un xito (incluyendo esta ultima prueba).
Luego

tiene distribucin

fX (k) = (1 p)k1 p,

k = 1, 2, . . .

Nos referiremos a esta distribucin como Geom(p).

Variables aleatorias continuas. Una variable X

que no sea discreta y cuya funcin de

distribucin pueda escribirse como:

fX (s) ds

FX (x) =

para alguna funcin no-negativa

continua. En este caso fX (x) es

fX (x) denida para todo valor de x, se llama variable aleatoria


llamada la funcin de densidad (o densidad ) de X . Es anloga

a la funcin de probabilidad de una variable discreta. Cuando no haya confusin denotaremos


la densidad por

Ejemplos:

1.

f (x)

omitiendo mencionar la variable.

Densidad uniforme.

Si elegimos un punto al azar en el intervalo

(a, b)

con la idea

intuitiva de que los intervalos de igual longitud tienen la misma probabilidad de ser
elegidos, es fcil ver que la distribucin de probabilidad viene dada por:

F (x) = P (X x) =
a
La densidad de

queda denida por:

(
f (x) =
2.

xa
dx
=
.
ba
ba

1
,
ba

para

0,

en otro caso.

a < x < b,

Densidad exponencial. Para cualquier constante > 0,


(
ex , x 0 ,
f (x) =
0,
x < 0.
Nos referiremos a la distribucin generada como Exponencial().

3.

Densidad normal. Para constantes R, 2 > 0,


f (x) =

1
(2 2 )1/2

(x )2
exp
2 2

Nos referiremos a esta distribucin con

!
,

< x < .

N (, 2 ). Si = 0 y 2 = 1, esta ser la Densidad

Normal estndard. Para sta usaremos la notacin especial




1
1 2
(x) = exp x ,
2
2
Z x
(x) =
(s) ds .

Ejercicio 4.

X N (, 2 ) y denamos la variable Y = aX + b, con a y b constantes.


2 2
Mustrese que Y N (a + b, a ). b) Sea U una variable aleatoria con distribucin uniforme
en (0, 1), y denamos Y := (1/) log U . Mustrese que si > 0, Y Exponencial().
a) Sea

1.5. Vectores aleatorios


En muchos modelos es necesario tener en cuenta los efectos conjuntos de varias variables
al mismo tiempo. Dichas variables deben estar denidas en el mismo espacio muestral
su correspondiente funcin de probabilidad

F.

y su espacio de eventos

con

Denimos algunas

cantidades tiles para tratar estos casos distinguiendo entre el caso discreto y el continuo.
1.

Funcin de probabilidad conjunta. Para variables discretas X1 , X2 , . . . , Xn , tenemos:


f (x1 , x2 , . . . , xn ) = P (X1 = x1 , X2 = x2 , . . . , Xn = xn ) ,
donde cada

xi

recorre los valores posibles de cada variable

Xi .

Notacin:

x = (x1 , x2 , . . . , xn ) X = (X1 = x1 , X2 = x2 , . . . , Xn = xn ) .
De este modo, si

Rn ,

es un subconjunto de

P (X D) =

tenemos que:

f (x) .

xD

Distribuciones Marginales. Podemos recuperar las distribuciones de cada una de las


Xi
X1 :

variables
variable

si conocemos su distribucin conjunta. Consideremos la distribucin de la

fX1 (x) =

f (x, x2 , . . . , xn ) .

x2 ,...,xn
Es decir, sumamos sobre todos los valores posibles del resto de las variables, dejando jo
al valor

x.

En trminos de eventos podemos interpretarlo de la siguiente forma:

{X1 = x} = {X1 = x} = {X1 = x} x2 ,...,xn {X2 = x2 , . . . , Xn = xn }


= x2 ,...,xn {X1 = x} {X2 = x2 , . . . , Xn = xn }
Las distribuciones as obtenidas se denominan
2.

distribuciones marginales.

Funcin de densidad conjunta. Un par de variables aleatorias (X1 , X2 ) es (conjuntaa, b, c, d,


Z bZ d
P ({a < X1 b} {c < X2 d}) =
f (x1 , x2 ) dx2 dx1

mente) continuo con densidad

f (x1 , x2 )

si, para todo

X1 , X2

En particular, esto dene la funcin de distribucin conjunta de

F (x1 , x2 ),

por:

x1

denotada por

x2

F (x1 , x2 ) =

f (u, v) dvdu .

La densidad tiene la misma propiedad que en el caso discreto. Si

es un subconjunto del

plano, tenemos que:

Z Z
P ((X1 , X2 ) D) =

f (x1 , x2 ) dx1 dx2 .


(x1 ,x2 )D

Tambin podemos recuperar la distribucin de cada variable a partir de la conjunta:

Z bZ

P (a < X1 b) = P ({a < X1 b} { < X2 < }) =

f (x1 , x2 ) dx2 dx1 .


a

De modo que

fX1 (x) =

f (x, x2 )dx2 .

3.

Independencia de variables aleatorias. El par de variables X1


entes si, para todo

x1

X2

son independi-

x2 ,

P (X1 x1 , X2 x2 ) := F (x1 , x2 ) = FX1 (x1 )FX2 (x2 ) =: P (X1 x1 ) P (X2 x2 ) .


Para conjuntos arbitrarios podemos deducir la independencia a partir de las densidades.
Derivando la expresin para

podemos obtener la factorizacin:

f (x1 , x2 ) = fX1 (x1 ) fX2 (x2 )


y probar que:

Z Z
P (X1 A, X2 B) =
A

f (x1 , x2 )dx1 dx2


 Z

Z
fX1 (x1 ) dx1
fX2 (x2 ) dx2 = P (A)P (B)
=
A

y recuperamos la nocin previa de independencia.

Ejercicio 5.
c < d.

a) Sean

X1

X2

con distribucin conjunta

F (x1 , x2 ),

y supongamos que

a<b

Mustrese que

P (a < X1 b, c < X2 d) = F (b, d) + F (a, c) F (a, d) F (b, c) .


b) Sean

X1 , X2

variables independientes con distribucin exponencial con parmetros

respectivamente. Mustrese que

P (X1 t < X1 + X2 ) = P (X2 t < X1 + X2 ) .

1.6. Transformacin de variables aleatorias


Consideremos el caso de variables continuas; buscamos la distribucin de probabilidad de
una funcin

Z = g(X, Y )

del vector aleatorio

(X, Y ).

Usando la denicin de la funcin de

probabilidad:

Z Z
FZ (z) := P (Z z) = P (g (X, Y ) z) =

f (x, y) dxdy .
x,y:g(x,y)z

Suma de variables aleatorias continuas.


suma es

Z =X +Y

Si

X, Y ,

tienen densidad conjunta

f (x, y)

y su

luego:

Z Z
FZ (z) = P (X + Y z) =

f (x, y) dxdy
x,y:x+yz

zx

f (x, y) dxdy
Zx=
z

Zy=

f (v, u v) dv du

=
u=
donde

u = x+y y v = x. De esta frmula vemos inmediatamente que la densidad de probabilidad


Z
fZ (z) =
f (v, z v) dv .

Si

X, Y

son independientes tenemos que

f (x, y) = fX (x)fY (y),

fX (v) fY (z v) dv ,

fZ (z) =

que representa la

convolucin

y nos queda:

de las densidades de
10

y de

Y.

(1)

Ejemplo: Suma de normales estndar


Z

fZ (z) =
Z

X, Y

Si

son variables

N (0, 1),

luego usando (1):



1
1 2 1
2
exp v (z v) dv
2
2
2



1
1 2
z 2
1
2
exp z v
dv = e(1/4)z ,
2
4
2
2

que es una normal de media cero y varianza 2.

Ejercicio 6.
luego

X1 N (1 , 12 )
N (1 + 2 , 12 + 22 ).

Muestra que si

X1 + X2

es

X2 N (2 , 22 )

con

X1 , X2

independientes,

1.7. Valor esperado y momentos


Para hacer el promedio de una cierta cantidad de datos

N,

solemos hacer una lista

dn ,

los

sumamos y dividimos por la cantidad total de datos:

1 X
dn .
N n

w=

dn corresponden a una variable discreta, podemos reescribir esto agrupando los datos
Pongamos por ejemplo que dn {xi : 1 i < }. Entonces, podemos reescribir el

Si los datos
repetidos.

promedio del siguiente modo:

1 X
n(i)xi ,
w=
N i=1
donde

n(i) es el nmero de veces que aparece el dato xi . Llamando fi := n(i)/N


xi , nos queda la siguiente expresin:

a la

frecuencia

con que aparece el dato

w=

fi xi .

i=1

Valor esperado. Sea X una variable discreta con distribucin de probabilidad f (k); el valor
esperado (o media ) de X est denotado por E [X] y denido por
X

E [X] :=

xk f (k) ,

k |xk | f (k) < . Si esta condicin falla diremos que la variable no tiene media
nita. En el caso de una variable continua la denicin es anloga:
siempre que

E [X] :=

x f (x) dx ,

|x| f (x) dx < .

Consideremos ahora dos variables vinculadas por

siempre que

debemos conocer (en principio) la distribucin de


medio del siguiente resultado.
11

Y = g(X). Para calcular el valor esperado


g(X). Podemos evitar esta dicultad por

Teorema

Sean las variables aleatorias

real denida sobre


a) Si

tales que

Y = g(X),

donde

g ()

es una funcin

R.

es discreta, luego

E [Y ] =

g (xk ) f (k) ,

k
siempre que
b) Si

|g (xk )| f (k) < .

es continua, luego:

g (x) f (x) dx ,

E [X] :=

siempre que

|g (x)|

Demostracin:

f (x) dx < .

vemos solamente la parte a), ya que la b) es anloga.

E [Y ] : =

yP (Y = y)

X X

P (X = x)

x:g(x)=y

g (x) P (X = x)

x:g(x)=y

g (x) P (X = x) ,

x
donde la ltima igualdad se obtiene teniendo en cuenta que
valores posibles de

X.

Propiedad

Si

y {x : g(x) = y}

son independientes, entonces para funciones reales

son todos los

tenemos que:

E [g (X) h (Y )] = E [g (X)] E [h (Y )] .

Ejercicio 7.

Demustrese esta propiedad.

Momentos. Son cantidades que se denena partir


del valor esperado.

k
a) El momento k-simo de X es k := E X .
i
h
k
b) El momento central k-simo de X es k := E (X E [X]) .
En particular

Ejercicio 8.

es la media y

es llamada la varianza y denotada por

o Var[X].

Muestra que la varianza de la suma de dos variables independientes es igual a la

suma de las varianzas.

Covarianza y correlacin

Para variables

X, Y

con distribucin conjunta debemos consid-

erar usualmente los siguientes parmetros:


La covarianza de

es:

cov (X, Y

) = E [(X E [X]) (Y E [Y ])] .

El coeciente de correlacin (o correlacin) es:

(X, Y ) :=

cov (X, Y

(var [X] var [Y ])1/2


12

1.8. Distribuciones condicionales


Las distribuciones condicionales de una variable se obtienen al considerar una restriccin
en el valor de otra variable aleatoria. Consideramos el caso discreto, ya que las extensiones son
obvias.

Funcin de probabilidad condicional

Consideremos dos variables discretas

Y,

dis-

Y = y , permite considerar las probabilidades condiX dado que Y = y . Esto dene una nueva funcin de probabilidad para

tribuidas en forma conjunta. El evento


cionales de la variable

que la denotamos por:

fX|Y (x|y) := P (X = x|Y = y) =


=
La funcin

x fX|Y (|y)
X

fX,Y (x, y)
,
fY (y)

P (X = x, Y = y)
P (Y = y)

fY (y) > 0 .

dene una nueva funcin de probabilidad para la variable

fX|Y (x|y) =

Esperanza condicional.

X:

X fX,Y (x, y)
1 X
fY (y)
=
fX,Y (x, y) =
= 1.
fY (y)
fY (y) x
fY (y)
x

La esperanza condicional de

el valor esperado cuando jamos la variable

dado

Y =y

se obtiene calculando

y aplicamos la distribucin condicional:

E (X|Y = y) =

xfX|Y (x|y) .

x
Cuando no se especica un valor concreto de

y,

la esperanza condicional de

nueva variable aleatoria cuyos valores dependen del resultado de la variable

X
Y,

dado

es una

es decir:

E (X|Y ) : 7 E (X|Y = Y ()) .

Caso continuo.

Cuando las variables son continuas no se puede hacer la derivacin elemental

usando la probabilidad condicional. En este caso nos guiamos heursticamente por analoga con

Xe
f , entonces la densidad condicional

el caso discreto, aunque estas deniciones pueden justicarse en un contexto ms general. Si

Y
de

son continuas y tienen densidad de distribucin conjunta

dado

Y =y

est denida por:

fX|Y (x|y) =
La esperanza condicional de

dado

f (x, y)
,
fY (y)
Y =y

cuando

fY (y) > 0 .

viene dada por:

Z
E (X|Y = y) =

xfX|Y (x|y) dx ,
R

siempre que la integral converja absolutamente. La funcin


abilidad y

E (X|Y = Y ())

es una variable aleatoria.


13

fX|Y (, y) es una densidad de prob-

El lema de particin.
a) Si

Sean

Ysondiscretas, entoncesfX
b) Si

variables distribuidas en forma conjunta.

(x) =

y fX|Y
son continuas, entonces:

(x|y) fY (y) .

Z
fX|Y (x|y) fY (y) dy .

fX (x) =
R

Ejercicio 9.

Prueba el lema de particin.

A partir de este lema podemos mostrar algunas identidades tiles. Consideremos el caso
discreto:

E [X] =

xfX (x) =

XX

xfX|Y (x|y) fY (y)

!
=

X X
y

xfX|Y (x|y) fY (y)

E (X|Y = y) fY (y)

= E [E (X|Y )] .
Y hay una idendidad anloga para el caso continuo.

Ejemplo de aplicacin del lema de particin.

Sean

variables aleatorias continuas

e independientes. Entonces:

P (X < Y |Y = y) fY (y) dy

P (X < Y ) =

Al ser

independientes, tenemos que:

P (X < Y |Y = y) fY (y) = P (X < y) fY (y) = FX (y) fY (y)


y nalmente

P (X < Y ) =

FX (y) fY (y) dy .

Es costumbre utilizar la siguiente notacin, que es ms intuitiva que la anterior:

P (X < Y |y < Y < y + dy) fY (y) dy

P (X < Y ) =

fY (y) dy
(y, y + dy).

resaltando el hecho de que


intervalo innitesimal

es la probabilidad de encontrar a la variable

en el

1.9. Funciones generatrices


Funcin generatriz de momentos
aleatoria

La

funcin generatriz de momentos (fgm) de la variable

est dada por:

 
MX (t) := E etX ,
14

para todos los valores reales

en que est denido el valor esperado. En particular, cuando

la funcin est denida en un intervalo real

(a, a),

podemos escribir, dentro del crculo de

convergencia:

"
#
r
X tr X r
X
 tX 
t
=E
E e
=
E [X r ] .
r!
r!
r=0
r=0
De modo que los coecientes del desarrollo, que podemos recuperar derivando
indican el momento

r-simo

de la variable

 
E etX

nos

X.

Hay tres propiedades importantes que nos interesan de la fgm.

Unicidad]Si MX (t) es convergente en un intervalo (a, a) con a > 0, entonces los momentos
de la variable
mentos de

de momentos

determinan en forma nica la distribucin

son nitos. Si

conjunta

FX (x).

Ms an, todos los mo-

son independientes, luego tenemos que la funcin generatriz



M (s, t) := E esX+tY = MX (s)MY (t) .
X e
fgms, tal que, cuando n , Mn (t)
F (x). Adems, si Mn (t) es la fgm de una

Ms an, puede mostrarse que si la fgm conjunta factoriza de esta manera, entonces

Y son independientes. Sea Mn (t) una sucesin de


M (t), donde M (t) es una fgm de una distribucin
distribucin Fn (x), tenemos que
Fn (x) F (x) ,

Ejemplo.

n .

X N (0, 1) tenemos que:


Z
1
2
ex /2 etx dx
MX (t) =
2

Z
2
1
2
e(xt) /2 dx
= et /2
2

t2 /2
=e
.

Para una variable

Del mismo modo si

Y N (, 2 ),

obtenemos:



2
 (+X)t 
t+ 2 t2
t
MY (t) = E e
= e MX (t) = e
.

La funcin caracterstica

La funcin denida por



X (t) := E eitX = E [cos(tX) + isen(tX)] , t R, i2 = 1 ,
se llama la

funcin caracterstica

de la variable

o tambin fc. Esta funcin, a diferencia de

la fgm, existe siempre, ya que:

 itX 


E e
E eitX = 1 .
Cuando la funcin generatriz de momentos existe en un intervalo

t R.

X (t) = MX (it) ,

Esto implica que la normal estndar tiene funcin caracterstica:


2

X (t) = et .
15

(a, a)

tenemos que:

2. La caminata aleatoria.
2.1. El proceso aleatorio ms simple en una dimensin.
Nos planteamos el siguiente problema elemental de probabilidades:

UnicidadFactorizacinContinuidad

Una partcula puede moverse sobre la rec-

ta real dando saltos de longitud 1 hacia la derecha o la izquierda de modo aleatorio.


La probabilidad de desplazarse hacia uno un otro lado es de 1/2. Despus de

movimientos puede ocupar alguna de las posiciones:

XN = N, N + 1, . . . , 1, 0, 1, . . . , N 1, N
X0 = 0

Si su posicin inicial es

P (XN = m)

deseamos calcular la probabilidad

XN = m

de encontrarla en la posicin

al dar un nmero

w(m, N ) :=
de pasos N .

Haremos en primer lugar un abordaje directo calculando una expresin explcita para estas
probabilidades. Como veremos ms adelante, ste tambin puede resolverse desde puntos de
vista distintos: a travs de la solucin explcita de una ecuacin en derivadas parciales, como
una ecuacin en diferencias, o como el valor esperado de una variable estocstica.

2.2. Solucin explcita discreta y su comportamiento asinttico


Dadas las condiciones del problema, est claro que

w(m, N ) = 0

para

entonces contar de cuntas maneras diferentes podemos llegar a un valor


N
caminos posibles son igualmente probables, con probabilidad 1/2 .
Sean i,d

|m| > N . Debemos


m, ya que todos los

0 el nmero de pasos realizado hacia la izquierda y a la derecha respectivamente.

Tenemos entonces que:

d+i = N
di = m
accesibles para un

entre las que hay

i, d

son

0, . . . , N

no todas

las posiciones x = m son


N m
son enteros
2
positivos. En caso de que lo sean el problema es equivalente a contar las palabras de N letras,
Los posibles valores de

letras A e

es

, i =
d= N +m
2

letras B:

w(m, N ) =

Ejercicio 10.

de modo que

dado, slo lo son aquellas para las cuales

N! 1
=
d!i! 2N

Comprueba que para cada

N +m
2

1
N!
 N m  N .
! 2 !2

la media de la variable

XN

es cero y su varianza

N.
El comportamiento de esta expresin para

frmula de Stirling:

1/2

n! (2n)
donde

f (n) g(n)

para

m  N 1 , m, N

 n n

n ,

quiere decir que

podemos verlo usando la

(n)
limn fg(n)
= 1.

(2)
Usando esta aproximacin

podemos escribir:

r
w(m, N )
1 recordemos que

mN

para

2 N +1/2
N

N m
N +m

m/2

es equivalente a

16

N 2 m2

lmN

m
N

 N2+1

= 0.

N  m.

(3)

o de forma equivalente:

r
w(m, N )
Por otra parte, si

mN


2
N

1 m/N
1 + m/N

m/2 
1

 m 2  N2+1
N

N  m.

(4)

tenemos tambin que:

1x
1+x

m/2

m
m
2
2
= e 2 logf (x) = e 2 (2x+O(x )) = emx+mO(x )

de modo que

1 m/N
1 + m/N

m/2

m
m
= e N (1+O( N ))

y adems

1 x2

 N2+1

entonces


1

= e

N +1
log
2

(1x2 ) = e N2+1 (x2 +O(x4 ))

 m 2  N2+1
N

=e

m2
2N

1+O

m2
N2



Y as, reemplazando en (4) obtenemos la siguiente relacin:

r
w(m, N )
El comportamiento asinttico para

2 m2 m2
e N e 2N =
N

N , m  N ,

2 m2
e 2N .
N

es nalmente:

N!
1
w(m, N ) = N +m  N m  N
! 2 !2
2

2 m2
e 2N
N

(5)

2.3. La funcin densidad de probabilidad


k := t/N , h := x/m (tamao de la malla), y teniendo en cuenta que en
posiciones posibles (debido a que
x entran aproximadamente x
2h
dependiendo de m y N tenemos algunas posiciones inaccesibles), la probabilidad de encontrar
x
a la partcula en el intervalo [x
, x + x
] viene dada por:
2
2
Si llamamos

un intervalo de longitud

x+ x
2

x x
2

x
x
x
x
u(y, t)dy := P (x
mh x +
) w(x/h, t/k)
=
2
2
2h
h

k x2t2 k2
h
e
2t

(6)

h2
Deniendo adems el coeciente de difusin D :=
(es la velocidad a la que se recorre la
2k
2
distancia h partida por dos) tenemos que la densidad de probabilidad viene dada (para h 0,

x  1)

por la expresin

u(x, t) =

x2
1
e 4Dt
4Dt

que corresponde a la solucin fundamental de la ecuacin del calor.


17

(7)

2.3.1. Pared reejante


Supongamos que la partcula, al llegar a una posicin

r > 0,

tiene probabilidad 1 de ir

hacia la izquierda y probabilidad 0 de desplazarse a la derecha. La posicin

hace rebotar el

movimiento hacia la izquierda y debemos recalcular la probabilidad de algunos de los caminos

wref (m, N ; r):=probabilidad de que la partcula llegue a la


posicin m, con m < r , al desplazarse N pasos.
Para jar ideas tomemos un camino que rebote una sola vez en la posicin r . La probabilidad de cada paso sigue siendo 1/2, con excepcin del paso dado en la posicin r , que tiene

anteriores. Consideremos la funcin

probabilidad 1 de ir hacia la izquierda. En este caso es equivalente a multiplicar por dos la


probabilidad que tiene el mismo camino de ocurrir en un desplazamiento libre, sin una pared
reejante. Es fcil convencerse de que la probabilidad de un camino que rebote n veces en la
n
pared, es 2 por la probabilidad del mismo camino considerado como un proceso sin pared
reejante. Una forma grca de calcular estas probabilidades es considerar

caminos reejados

al otro lado de la pared. Por ejemplo, si el camino rebota slo una vez, podemos considerar
otro camino que sale hacia la derecha en el punto de rebote y est reejado al otro lado de la
pared. Al realizar los
posicin

2r m

pasos el camino original llega a la posicin

y el reejado llegar a la

(vase la gura)

Del mismo modo, cada camino libre que atraviese una sola vez la posicin r (y que llegue
m0 = 2r m) corresponde a la reexin de un camino admisible. Si sumamos
0
la probabilidad del camino libre que llega a m y la del camino libre que llega a m tenemos

a la posicin

el mismo efecto que al multiplicar por dos la probabilidad del camino admisible (considerado
como camino libre). Para generalizar esta idea, supongamos que el camino rebota dos veces en
la pared. En este caso habr que multiplicar por 4 a la probabilidad del camino libre, con lo
cual habr que construir 3 caminos ms para seguir con la misma idea.

Dado el camino admisible, tenemos 3 caminos libres ms para elegir, uno que llega a m y
m0 . Consideremos el que llega hasta el punto 1, despus de pasar la barrera se

dos que llegan a

dirige al punto 2 y de ah al punto

m.

Otro de ellos sigue el mismo camino admisible hasta el


0
punto 2 y en lugar de rebotar en la pared se dirige al punto m . Por ltimo, el camino que a
partir del punto 1 es una reexin del camino admisible con respecto al eje que pasa por

r.

De

este modo, podemos convencernos de que es vlida la siguiente frmula

wref (m, N ; r) = w(m, N ) + w(2r m, N ) (m < r).

(8)

m = r. El razonamiento que hemos hecho es vlido solamente


m < r, ya que por cada rebote contra la pared debemos considerar el doble de
si m = r esto no es verdad. En este caso debemos tener en cuenta que el ltimo

Una aclaracin importante para


para posiciones
caminos, pero

paso, si bien toca la pared, no debe ser multiplicado por dos. Vase el ejemplo de la gura

La probabilidad que buscamos es entonces la mitad que la obtenida con la frmula (8) y
tenemos entonces que

wref (r, N ; r) = w(r, N ) .


Es decir que la probabilidad de llegar a la pared reectante en tiempo
misma que la probabilidad de llegar por caminos libres!
18

es exactamente la

Si tomamos

muy grande en (8) tenemos la frmula asinttica:


wref (m, N ; r)

2
N

 12 

2 /2N

em

+ e(2rm)

2 /2N

(m < r)

o en su versin continua (para la densidad de probabilidad):

1
uref (x, t) =
2 Dt
Donde

xr := rh,

x
4Dt

+e

(2xr x)2
4Dt


(x < xr ),

(9)

es la posicin de la pared.

Ntese que la funcin denida en (9) satisface la ecuacin:

uref
|x=xr = 0
x

2.3.2. Pared absorbente


m,
posicin a,

En este caso calcularemos la probabilidad de encontrar a la partcula en la posicin


despus de

pasos, pero considerando que una vez que atraves una pared en la

ya no regresa. Es decir, si el camino que seguimos atraviesa la posicin

a > 0,

de ir hacia la izquierda es ahora nula. De los caminos libres que llegan a


quitar los que en algn instante anterior han atravesado la barrera en

a.

la probabilidad

tenemos que

Podemos hacer la

debemos

misma construccin grca que para el caso anterior, esta vez teniendo en cuenta que
m0 . Por cada camino prohibido (libre)
0
que llega a m (esto es, que atraviesa a la pared en a), podemos construir uno que llega a m

descontar la probabilidad de los caminos que terminan en


usando la reexin con respecto al eje en

a partir de los puntos de contacto. Los caminos

admisibles no pueden reejarse ya que no hay puntos de contacto con el eje. Recprocamente,
0
por cada camino que sale de 0 y llega a m podemos contar un camino prohibido que llega a

m.

De este modo podemos decir que la probabilidad que buscamos es

wabs (m, N ; a) = w(m, N ) w(2a m, N )


1


2 2  m2 /2N
2
e
e(2am) /2N

m < a.

y la funcin densidad es

1
uabs (x, t) =
2 Dt

x
4Dt

(2xa x)2
4Dt


.

Con la propiedad

uabs (xa , t) = 0 .
Para

m=a

el razonamiento anterior no es vlido y solamente debemos quitar algunos de


0
los caminos inadmisibles (no todos los caminos que llegan a m = a son ahora inadmisibles).
El problema est vinculado con el clculo de la probabilidad de que la partcula sea absorbida
por la pared despus de
a la posicin

a,

pasos. Debemos tener en cuenta que de todos los caminos que llegan

debemos quitar todos los que han atravesado la barrera anteriormente. Una

forma de contar los caminos inadmisibles es la siguiente. Para llegar a


dos posibilidades. O bien a tiempo
que llegan a

a1

N 1

estamos en

a+1

o en

a 1.

en tiempo

para tiempo

N 1.

a1

son

la misma cantidad

a+1

son todos

que los que llegan

Podemos ver esto con un argumento de reexin en el eje


19

hay

Algunos de los caminos

son admisibles y otros son inadmisibles. Los que llegan a

inadmisibles. Los inadmisibles que llegan a


a

a+1

a.

Si

a 1 (a partir del primer contacto con el eje a)


a + 1 al mismo tiempo. De este modo, la probabilidad que queremos
ser la de los caminos libres que llegan a a en tiempo N menos el doble de los caminos que
llegan a a + 1 en tiempo N 1:
reejamos cada camino inadmisible que llega a

obtenemos otro que llega a

nmero de caminos

(N 1)!
N!

2
( N 2+a )!( N 2a )!
( (N 1)+(a+1)
)!( (N 1)(a+1)
)!
2
2
!
( N a )
N!
12 2
= N +a N a
N
( 2 )!( 2 )!
=

N!
a
N +a
N ( 2 )!( N 2a )!

La probabilidad de ser absorbido en la posicin


N

dividido por

a,

a tiempo

es entonces el nmero anterior

a
N!
a
= w(a, N ) .
N a
N +a
N
N 2 ( 2 )!( 2 )!
N

wabs (a, N ; a) =
En el caso de

grande tenemos la frmula asinttica

a
wabs (a, N ; a)
N
que expresada en trminos de

xa = ah

t = Nk

2
N

 12

e(a

2 /2N )

viene dada por:

1
2k 2 (x2a /4Dt)
e
h2 t

 12
1
xa k
2
e(xa /4Dt)
=
t
Dt

xa k
p(xa , t) =
t

Observacin: la funcin p no es la densidad de probabilidad, es simplemente una


interpolacin de la funcin

wabs .

La densidad de probabilidad

q(xa , t)

calculamos a continuacin. La probabilidad de encontrar a la partcula en


tiempo

[t, t + t]

especie de

respecto del tiempo la

xa

en el intervalo de

es

Z
t

t+t

xa
t
q(xa , t)dt p(xa , t)
=
2k
2t

1
Dt

 12

e(xa /4Dt) t
xa , estn
Haciendo t 0

donde tuvimos que dividir por dos, ya que los tiempos posibles de llegada, jado
denidos en intervalos de tamao

2k

(dependiendo de la paridad de

obtenemos

xa
q(xa , t) =
2t

1
Dt

 12

m,N ).

e(xa /4Dt)

Destaquemos la siguiente relacin

q(xa , t) = D

(uabs (x, t)) |x=xa .


x

Si interpretamos la probabilidad como frecuencia a la que ocurre un suceso, hemos obtenido


la fraccin de partculas (de un nmero muy grande de ellas) que salen de
primera vez a la pantalla absorbente

xa

por unidad de tiempo.


20

x=0

y llegan por

2.4. Una ecuacin en diferencias para la densidad de probabilidad


Vamos a abordar el problema del clculo de la densidad de probabilidad desde otro punto
de vista, sin utilizar la solucin explcita para las probabilidades obtenida en la seccin anterior.
En primer lugar observemos que la funcin

w(m, N )

satisface una ecuacin en diferencias. La

x = mh en el tiempo
hasta (m 1)h en el tiempo

idea bsica es la siguiente: la probabilidad de que la partcula llegue a

t = (N + 1)k puede calcularse como la probabilidad de que llegue


N k por la probabilidad de desplazarse hacia la derecha en el siguiente paso temporal, ms la
probabilidad de que llegue a (m + 1)h en el instante N k por la probabilidad de que se desplace
hacia la izquierda en el siguiente paso. Como cada paso es una variable discreta independiente
del movimiento anterior tenemos que:

1
1
w(m, N + 1) = w(m 1, N ) + w(m + 1, N ),
2
2

(10)

donde un medio es la probabilidad de desplazarse a derecha o izquierda. Cuando


tenemos que

w(m, N ) 0

m, N

ya que si en el caso discreto tenemos cada vez ms posiciones

posibles, la probabilidad de que alguna de ellas ocurra va a tender a cero necesariamente. Por
esto es mejor que consideremos una aproximacin a la densidad de probabilidad

uh,k (x, t) :=

u(x, t):

1
w(x/h, t/k) .
2h

(11)

La idea central que nos gua es encontrar una funcin de densidad lmite para
momento, vamos a suponer que este lmite existe y lo denotamos por

h,k (x, t) 0,

uh,k (x, t) = u(x, t) + h,k (x, t)

Si reemplazamos los valores correspondientes de

para

h, k 0.

De

u(x, t):
h, k 0 .

en la ecuacin (10) tenemos que

1
1
uh,k (x, t + k) = uh,k (x h, t) + uh,k (x + h, t) .
2
2

(12)

Como veremos ms adelante, (12) es un esquema numrico que aproxima a la solucin de una
ecuacin diferencial. En este caso tenemos el problema inverso al clculo numrico: dada la
ecuacin en diferencias intentaremos determinar la ecuacin diferencial de la funcin lmite.
Para hacer esto necesitamos saber con qu ecuacin es consistente este esquema, y debemos
reemplazar la solucin continua

en el esquema dado. Aproximando las cantidades utilizando

el desarrollo de Taylor:

u
(x, t)k + O(k 2 )
t
1
1 2u
(u(x h, t) + u(x + h, t)) = u(x, t) +
(x, t)h2 + O(h4 )
2
2 x2
u(x, t + k) = u(x, t) +

(ntese el error de orden 4 debido a la cancelacin de las potencias impares). Igualando las
cantidades obtenidas tenemos que

u
h2 2 u
h4
(x, t) + O(k) =
(x, t) + O( ).
t
2k x2
k
h2
permanezca constante,
2k
obtenemos la ecuacin del calor unidimensional para la densidad de probabilidad u:
Si tomamos ahora lmite para

h, k 0 de modo que el cociente D =


u
2u
= D 2.
t
x
21

Obsrvese que si

h2 /k 0

la ecuacin es consistente con

u/t = 0,

que corresponde a un

estado estacionario de la ecuacin del calor.


Con esta forma de ver las cosas es relativamente sencillo imponer condiciones para tener
una pared reejante o absorbente. De acuerdo con la condicin de reexin la nica posibilidad
1
de llegar a la pared es desde la izquierda (en el tiempo anterior) con probabilidad , de modo
2
que:

Por otra parte, la

1
wref (r, N ; r) = wref (r 1, N 1; r) .
2
probabilidad de llegar en tiempo N + 1 a la posicin r 1

es:

1
wref (r 1, N + 1; r) = wref (r 2, N ; r) + wref (r, N ; r) ,
2
ya que tenemos probabilidad 1 de rebotar una vez que estamos en la posicin

wref (r, N ; r)

r.

Eliminando

de ambas ecuaciones obtenemos:

1
1
wref (r 1, N + 1; r) = wref (r 2, N ; r) + wref (r 1, N 1; r) .
2
2
En trminos de la densidad continua escribimos la ecuacin anterior:

1
1
uref (xr h, t + k) = uref (xr 2h, t) + uref (xr h, t k) .
2
2
Obsrvese que usamos la densidad para puntos interiores, ya que la relacin entre densidad
y probabilidad discreta no es obvia para los puntos del borde (desde este punto de vista).
Aproximando por Taylor obtenemos la identidad (todas las funciones estn evaluadas en
y quitamos el

ref

(xr , t)

del subndice):

u
1
u
1
1 u
1 u
u
h+
k + o( k 2 + h2 ) = u
h+ u
h
k + o( h2 + k 2 ),
x
t
2
x
2
2 x
2 t

y teniendo en cuenta que el lmite es calculado para

k = O(h2 ):

u
u
h = O(h2 )
= 0.
x
x
Esta es la misma condicin, de tipo Neumann, que observamos para la solucin explcita.
En el caso de la pared absorbente debemos observar que:

1
wabs (a 1, N + 1; a) = wabs (a 2, N ; a),
2
ya que la probabilidad de que venga por la derecha (desde

a)

es igual a cero con la pared

absorbente. Usando la densidad continua:

1
uabs (xa h, t + k) = uabs (xa 2h, t),
2
y aproximando por Taylor (funciones evaluadas en

(xa , t)):

1
u + O(h + k) = u + O(h + k),
2
por lo tanto

u = 0,
como obtuvimos anteriormente con la solucin explcita para
22

uabs .

h y paso
k , la densidad de probabilidad de encontrar a una partcula para tiempo t = N k en
2
la posicin x = mh, cuando m, N con h / (2k) = D , es consistente con ecuacin del calor
Resumiendo, hemos encontrado que, haciendo un camino aleatorio de paso espacial

temporal

ut = Duxx .
Cuando hay una pared reectante en

x = xr

(13)

debemos aadir la condicin de contorno

u
(xr , t) = 0
x
y cuando hay una pared absorbente tenemos la condicin

u(xa , t) = 0.
En ambos casos la condicin inicial para

delta de Dirac. Es decir, para t = 0 toda

es una

la probabilidad est concentrada en el origen, la densidad es cero para

x 6= 0

pero su integral

en cualquier intervalo alrededor del origen es igual a 1. Esta es la solucin fundamental de la


ecuacin del calor, podemos reconstruir a partir de ella cualquier condicin inicial y tambin
utilizar las ideas aplicadas para caminos discretos con paredes reejantes y absorbentes.

2.5. La caminata aleatoria como lmite de pasos independientes: El


teorema de Laplace-De Moivre
Podemos obtener la distribucin lmite de la caminata aleatoria a travs de un resultado
clsico de suma de variables aleatorias discretas, conocido como el teorema de Laplace-De
Moivre. La demostracin es esencialmente la misma que la vista anteriormente para los randomwalks (utilizando tambin el comportamiento asinttico de los factoriales).
(Laplace-De Moivre). Sean

In , n N,

variables aleatorias discretas independientes que

toman valores 0 y 1 y tales que

(
P (In = 1) = p
P (In = 0) = q
con

p + q = 1.

Si

SN :=

PN

n=1 In , entonces


lm P

Ejercicio 11.

SN N p
b
a
N pq

1
=
2

x2

e 2 dx .

Demuestra el teorema de Laplace-De Moivre siguiendo los siguientes pasos:

1) Verica que la esperanza y la varianza de

SN

vienen dadas por:

E[SN ] = N p
V [SN ] = N pq
2) Identica los posibles valores de la variable

SN ,

P (SN = m) = pm q (N m)

muestra que se satisface:

N!
(N m)!m!

3) Considera ahora los valores posibles de la variable

m Np
.
x=
N pq
23

N =

S
N N p
, escribe
N pq

(14)

x y hacemos N , entonces m . Aplica la frmula


x jo, N .
4) Escribe (14) en trminos de x y N , y desarrollando los exponentes hasta orden 2 demuestra

Observa que si se deja jo el valor de

de Stirling (2) a (14) justicando su uso para


que:

P (SN = m) = P (N = x) =

x2
1
e 2 (1 + o(1))
2N pq

Nota que:



r
m
p
1
=q 1
x ,
N
qN



r
q
m
=p 1+
x .
N
pN

5) Suma las contribuciones del intervalo, teniendo en cuenta que la distancia entre los valores

m Np
xm =
N pq
es

xm = xm+1 xm =
Si sumamos sobre los

xm

1
.
npq

que entran en el intervalo tenemos que

Z b
X
x2
x2
1
1
2m
P (a N b) =
e
xm
e 2 dx N
2 x [a,b]
2 a
m

Para obtener la distribucin lmite de la caminata aleatoria denimos ahora variables

dependientes Bn

que pueden tomar los valores 1 y 1 con probabilidad


Bn +1
La variable In =
satisface las condiciones del teorema, con p = q
2
P
PN
N
N
1
n=1 Bn + 2 y el teorema nos dice que:
n=1 In = 2

lm P

in-

1/2 respectivamente.
= 1/2. En este caso

!
PN
Z b
x2
B
1
n
n=1
a
e 2 dx .
b =
2 a
N

Si cambiamos la escala de los pasos con una constante

y denimos

k = t/N

como el paso

temporal, podemos escribir esto del siguiente modo

lm P

N
Llamando

XN

N
X
h
h
hBn b t
a t
k
k
n=1

1
=
2

x2

e 2 dx .

PN

hBn , tenemos que




Z b
h
h
x2
1
P a t XN b t
=
e 2 dx + N ,
2 a
k
k

n=1

h
jos. Obsrvese que si
0 para N ,
k
la densidad de XN estar concentrada alrededor del origen. Eligiendo a, b  1 tales que
R b x2
1
e 2 dx est tan cerca del valor 1 como queramos y N sucientemente grande tal que
2 a

< [a t hk , b t hk ] (, ), tenemos que:


donde

N 0

para


P ( XN ) P
donde

con

h
h
a t XN b t
k
k

1
=
2

puede hacerse arbitrariamente pequeo eligiendo

Z
a

convenientemente. Concluimos

que

lm P ( XN ) = 1

24

si

x2

e 2 dx + N = 1 + N ,

h
0.
k

Obsrvese que esta es la escala que corresponde a la ley de los grandes nmeros, donde
tomaramos

h = 1/N = O(k).

R b x2
h
1
Si por el contrario tenemos que , elegimos a 0 b de modo que
e 2 dx <
2 a
k
, con pequeo. En este caso, dados
h A, Bh arbitrarios (jos), tendremos que para un N
sucientemente grande [A, B] (a t , b t ) y por lo tanto
k
k

P (A XN B) P

h
h
a t XN b t
k
k

1
=
2

x2

e 2 dx + N = + N ,

de modo que

lm P (A XN B)

N
para

arbitrariamente pequeo. Podemos decir entonces que

lm P (A XN B) = 0

si

h
.
k

Los casos considerados son lmites que nos llevan a distribuciones de algn modo triviales.
La primera, que concentra toda la medida en el origen, es una delta de Dirac. La segunda
dispersa las posiciones de tal modo que la probabilidad de encontrarlas en un intervalo nito
es nula. El caso que ms nos interesa es el que viene a continuacin.

Supongamos ahora que l


mN hk = 2D > 0. Si denimos

B := b t hk = b 2Dt, tenemos que

A := a t hk = a 2Dt,

Z A/2Dt
2
1
x2
P (A XN B) =
e
dx + N
2 B/2Dt
Z A
x2
1
=
e 4Dt dx + N
4Dt B
de modo que

1
lm P (A XN B) =
N
4Dt

x2

e 4Dt dx .

(15)

Este resultado es idntico al que obtuvimos anteriormente y es el que corresponde al lmite


difusivo.

3. El proceso de Wiener.
3.1. Denicin y propiedades bsicas del proceso de Wiener.
Hemos analizado uno de los procesos ms simples en una dimensin: la caminata aleatoria
(random walk). Hemos visto tambin que el lmite de las distribuciones de probabilidad discretas
puede llevarse al continuo por medio de un lmite adecuado en el tamao de los pasos espacial
y temporal. Las escalas entre ambos pasos estn vinculadas de una manera particular para
que en el lmite obtengamos una distribucin de probabilidad no trivial. Concretamente, hemos

h debe ser del orden de k , donde k es el paso temporal y h el espacial. Si elegimos


h = k (D = 1/2), en el lmite podemos generar un proceso continuo, o una familia de variables
2
aleatorias reales Wt , indexadas por el tiempo t, que tiene las siguientes propiedades:
visto que

2 Como es costumbre en estadstica, utilizaremos letras maysculas para indicar a las variables aleatorias y
minsculas para indicar un valor particular de las mismas.

25

1.

W0 = 0.

2.

Wt

3. Si

es una variable aleatoria con distribucin normal,

t > s, Wt Ws

Ws

es independiente de

Wt
Wt y Ws

N (0, t).

y tiene distribucin

N (0, t s). Importante:


Ws , sino que el incremento

Esta propiedad no nos dice que

sea independiente de

Wt Ws

tienen correlacin no nula. Para jar estas ideas es

lo es. Las variables

mejor tener en mente el mecanismo de construccin del proceso.


Las propiedades 1-3 pueden obtenerse a partir de los procesos discretos de caminata aleatoria
que hemos denido en el apartado anterior. Escribamos nuevamente al proceso discreto como
suma de variables aleatorias independientes, de tipo Bernouilli:

XN =

N
X

kBn ,

n=1
donde

k := t/N

es el paso temporal y

que pueden tomar los valores

Bn , 1 n N

con probabilidad

son variables aleatorias

1/2

independientes

respectivamente. La media de

XN

N y su varianza es la suma de las varianzas de cada incremento, es decir


V [XN ] = N V [ kB1 ] = N k = t. Cuando N (dejando a t constante, con k 0), la variable
Wt := lmN XN es una suma independiente de variables equidistribuidas y el
teorema de
t). Ntese
Laplace-De Moivre (cf. (15)) nos dice que Wt tiene una distribucin normal N (0,
es cero para todo

variables normales

que el mismo lmite puede obtenerse sumando


cada paso en lugar de las

Bn

discretas. Supongamos que

Zn

adecuadamente escaladas en

son variables normales de media 0

y varianza 1, y construimos el proceso (ahora con una distribucin continua de posibles valores
de la posicin, pero con valores temporales discretos)

XN =

N
X

dist

kZn

Zn = N (0, 1) .

n=1
Es fcil mostrar que la suma de variables normales independientes sigue siendo normal, con
media igual a la suma de las medias respectivas y varianza igual a la suma de las varianzas
respectivas. En este caso,
todo

XN

tendr una distribucin normal de media cero y varianza

para

N ! La misma distribucin lmite puede obtenerse con la suma de variables independientes,

idnticamente distribuidas y con varianza nita. Este resultado es conocido como

tral del lmite.

teorema cen-

Para ver la propiedad nmero 3 del proceso tenemos que tener en cuenta que los incrementos
a partir de un valor de tiempo

Wt

modo que la variable

son todos independientes del valor del proceso a tiempo

Dado que todas las pruebas

Wt Ws

de

puede escribirse como:

Wt = Ws + lm

tenemos que

s,

Bn

N
X

k = (t s)/N .

kBn ,

n=1

posteriores al tiempo

es independiente de

Ws

son independientes de la variable

Ws ,

y que su distribucin es normal con media cero.

Este proceso bsico, que hemos estudiado desde distintos puntos de vista, tiene el nombre

de

proceso de Wiener,

y es fundamental para la construccin de otros procesos en distintas

disciplinas (fsica, qumica, biologa, nanzas, etc.) El incremento de


est dado por

Wt := Wt+t Wt =

tZt ,
26

dist

Wt en un intervalo [t, t+t]

Zt = N (0, 1) .

Podemos escribir, para

t 0:

dWt =

dtZt .

(16)

Una aclaracin sobre el uso de subndices en (16). El incremento innitesimal del proceso

Wt se obtiene realizando una muestra de una variable normal independiente del valor actual de
Wt , multiplicada por la raz del incremento innitesimal dt. El subndice en Zt se utiliza para
indicar que la prueba aleatoria debe realizarse en tiempo t y que esta prueba es independiente
de las que deban realizarse para calcular incrementos en otros valores de tiempo. Como variables
aleatorias son idnticas (estn idnticamente distribuidas) pero es importante comprender que
la innidad de pruebas de las variables

Zt

que deben hacerse para construir el proceso

Wt

son

todas independientes. Dicho de otro modo y salvando las diferencias, es como si tuviramos que
arrojar una moneda en cada instante de tiempo para calcular una muestra de la evolucin del
proceso. Como veremos a continuacin, esto es equivalente a denir una medida de probabilidad
en un espacio de caminos continuos.

3.2. La medida de Wiener


En el apartado anterior hemos denido el proceso de Wiener como el lmite de una suma de
variables aleatorias de un modo parecido al que utilizamos para integrar una funcin continua:
Sumamos una gran cantidad de variables de varianza pequea. Conocemos la distribucin
lmite de estas variables, pero no sabemos si les corresponde algn espacio de probabilidad,
con una

-lgebra

de conjuntos medibles bien denida. Veamos en primer lugar que el mismo

proceso de construccin, y la escala utilizada para aadir las pruebas independientes, hacen que
una muestra del proceso de Wiener sea una funcin continua (en un sentido probabilstico).
Calculemos la siguiente probabilidad:

Por otra

x2
1
e 2t dx
P (|Wt+t Wt | > ) = P (| tZt | > ) =
2t |x|>

parte, para / t > 1:


Z

x
2t

e
|x|>

dx = 2

x
2t

dx 2

x
2 t

e 2 t
dx =
t

De modo que:

P (|Wt+t Wt | > ) = o((t)n ) n 0, t 0 ,


donde la ultima igualdad se obtiene teniendo en cuenta que

(17)

lmu un eu = 0 para todo n > 0.

No debemos confundir (17) con la nocin de regularidad de una funcin en el sentido usual. Si
bien esta relacin nos dice que la probabilidad de dar un salto es de un orden arbitrariamente
pequeo respecto de

t, esto no implica regularidad alguna. Es decir, puede haber una muestra

lmite (que tendramos que denir con precisin) que sea discontinua, ya que en principio

cualquier grca se podra obtener al sumar la innidad de variables independientes. La nocin


de la regularidad de estas muestras no tiene sentido hasta que no denamos un ambiente natural
en el que deben vivir los procesos lmite y le asignemos una medida de probabilidad. En ese caso
podramos intentar demostrar una armacin del tipo: el conjunto de funciones discontinuas
tiene medida cero, o el conjunto de funciones diferenciables tiene medida cero.

Construccin de la medida de Wiener. El proceso de construccin de la medida se basa

en el hecho de que la familia de variables

Wt

est incluida de forma natural dentro del conjunto

de funciones reales denidas en la semirrecta real positiva. Es decir, una


lmite es como asignar un valor real a cada

t > 0,

bera ser el conjunto enorme de las funciones reales denidas en


27

muestra

del proceso

y en ese sentido nuestro espacio muestral de-

[0, +). Sin embargo, teniendo

en cuenta (17) es posible restringirse al conjunto


tales que

(0) = 03 .

de funciones continuas

: [0, +) 7 R,

De hecho, N. Wiener asumi la continuidad como un postulado ms en su

trabajo original.
Imaginemos ahora que, dada una muestra
valor de la funcin continua

en

la variable

Wt : 7 R

nos devuelve el

t:
Wt () = (t) .

La distribucin de probabilidad de

Wt

nos permite calcular la probabilidad de encontrar a la

variable en un intervalo real determinado. Esta


medida para unos subconjuntos de

P (a Wt b) = medida

distribucin marginal

nos permitira denir la

muy particulares:
de los

que pasan por el intervalo

[a, b]

en

t.

El conjunto

C[a,b];t := { : a (t) b}
se llama

conjunto cilndrico o ventana y su medida de probabilidad la denimos entonces como:




x2

P C[a,b];t :=

e 2t
,
(x, t) :=
2t

(x, t)dx ,
a

t y media cero.
C[a1 ,b1 ];t1 y C[a2 ,b2 ];t2 debemos
tener en cuenta la distribucin conjunta de las variables Wt1 y Wt2 (t1 < t2 ) caracterizada por
la independencia del incremento Wt1 := Wt2 Wt1 respecto de Wt1 . La probabilidad que
queremos medir es la de las funciones continuas que pasan en t1 por un intervalo [a1 , b1 ] y en
t2 por un intervalo [a2 , b2 ]. Para ello notemos que:
Z b1 Z b2
P (a1 Wt1 b1 , a2 Wt2 b2 ) =
p(x1 , t1 ; x2 , t2 )dx1 dx2
(1) a1
a2
Z b2

Z b1 Z b2
Z b1
=
p(x2 , t2 |x1 , t1 )p(x1 , t1 )dx1 dx2 =
p(x1 , t1 )
p(x2 , t2 |x1 , t1 )dx2 dx1

esto es, usando la distribucin de la variable

Wt ,

(18)

que es normal de varianza

Para denir la probabilidad de la interseccin de dos ventanas

a1

a2

a1

a2

donde en la igualdad (1) usamos la densidad de la distribucin conjunta

p(x1 , t1 ; x2 , t2 )dx1 dx2 := P (x1 Wt1 x1 + dx1 , x2 Wt2 x2 + dx2 ) .


La independencia de los incrementos nos dice que

p(x2 , t2 |x1 , t1 )dx2 = P (x2 Wt2 x2 + dx2 |Wt1 = x1 )


= P (x2 x1 Wt2 t1 x2 x1 + dx2 )
= (x2 x1 , t2 t1 ) ,
donde

Wt2 t1 := Wt2 Wt1 .

(19)

Finalmente:

b1

P C[a1 ,b1 ];t1 C[a2 ,b2 ];t2 :=

Z

b2

(x2 x1 , t2 t1 )dx2 dx1 .

(x1 , t1 )
a1

a2

Habiendo denido la probabilidad de la interseccin de eventos elementales, tenemos entonces denida la de la unin:





P C[a1 ,b1 ];t1 C[a2 ,b2 ];t2 = P C[a1 ,b1 ];t1 + P C[a2 ,b2 ];t2 P C[a1 ,b1 ];t1 C[a2 ,b2 ];t2 .
3 La demostracin de esta armacin nos llevara un poco lejos a cuestiones tcnicas de teora de la medida.
Vase [2].

28

Esto nos permite denir una medida en el lgebra generada por los conjuntos cilndricos

F0

(uniones e intersecciones nitas de estos conjuntos). A partir de aqu podemos denir la sigma
lgebra

como la mnima que contiene a

F0

y la medida se extiende en forma continua a todos

ellos. No entraremos en los detalles tcnicos para mostrar que la medida est bien denida,
vase [2] o [5].
La denicin de esta medida, debida a Norbert Wiener, nos permite integrar funcionales

denidos en

(si probamos previamente que el funcional es medible...). Podemos interpretar,

dado un funcional

F(),

a su integral

Z
F()dP

como el valor esperado del funcional

F()dW

notacin

F cuando

recorre las funciones continuas en un intervalo

dado.

Ejemplo (Chorin-Hald) Dado T > 0, consideremos el funcional


F() := (T )2 .

En este caso

(x, T ) x2 dx = T ,

x P ( : x (T ) < x + dx) =

F()dW =

que es la varianza del proceso de Wiener en tiempo

T.

4. Interpretacin estocstica de esquemas numricos para


EDP'S.
4.1. La ecuacin del calor: solucin numrica.
En la seccin 4.1 identicamos una ecuacin de difusin como la ecuacin consistente con el
esquema en diferencias para las funciones de densidad

uh,k

(11). En el apndice A mostramos

que esta ecuacin tiene una solucin explcita bien denida con una condicin inicial de tipo
delta de Dirac. En este apartado veremos que los valores de
valores en los nodos de un

esquema numrico convergente

cierra el mtodo iniciado con la ecuacin en diferencias para

uh,k

pueden interpretarse como

para la ecuacin del calor. Esto

w(m, N )

y nos aporta una nueva

interpretacin estocstica de la solucin de la ecuacin en derivadas parciales.


Consideramos como punto de partida a la ecuacin del calor (13), con un coeciente de
difusin

D > 0,

y un mallado espacial de paso

h,

k . Aproximamos
para t > 0:

y temporal de paso

trminos de la ecuacin diferencial utilizando el desarrollo de Taylor

u(x, t + k) u(x, t)
u
(x, t) =
+ O(k)
t
k
2u
u(x + h, t) 2u(x, t) + u(x h, t)
(x, t) =
+ O(h2 )
2
x
h2
El

error de truncatura local


n
m

viene dado por:

n
un 2unm + unm1
un+1
m um
=
D m+1
k
h2
2
= O(k + h ) ,

29


u
2u
(mh, nk) D 2 (mh, nk)
t
x

los

donde

unm = u(mh, nk) (esto

es vlido para cualquier funcin suave sobre la malla, no necesarin


m
0 para h, k 0
se denomina
en anlisis numrico.
n
Denamos entonces Um como la solucin del siguiente problema discreto (m Z, n N0 ):
amente tiene que ser la solucin de la ecuacin del calor!). La propiedad

consistencia

n
n
n
n+1
n
+ Um1
2Um
Um+1
Um
Um
=D
,
k
h2

0
Um
= u0 (mh) ,

o puesto en forma explcita:


n+1
n
n
n
Um
= Um
(1 2) + Um+1
+ Um1
;

0
Um
= u0 (mh) ,

(20)

Dk
0
. A partir del dato inicial Um , podemos calcular los niveles temporales sucesivos
h2
por medio de la frmula explcita (20). Ntese que para = 1/2 nos queda exactamente el mismo
donde

:=

w(m, N ). Independientemente
n
n
n
de esto, veamos la convergencia del esquema numrico discreto. Sea em = um Um . La ecuacin
en diferencias para e viene dada por:

n
en+1
= enm (1 2) + enm+1 + enm1 + km
, e0m = 0.
m

esquema que el deducido para la funcin de probabilidad discreta

Intentamos comparar el error del paso temporal

n+1

con el del paso

n-simo.

Si tomamos el

error mximo para cada nivel de tiempo obtenemos:

en := mx(|enm |) ,
m

y deniendo

n = mx|m,n |;
m

Si

1 2 0

= mx n .
n

1
) tenemos la siguiente acotacin:
2

en+1 en + k en1 + 2k e0 + (n + 1)k .


e0 = 0 y que nos interesa estudiar la convergencia del esquema para un
instante de tiempo nito (ie. nk = t, n , h 0), tenemos que el esquema es convergente
para 1/2. En el caso lmite = 1/2, como mencionamos anteriormente, el esquema discre-

Teniendo en cuenta que

to coincide con el de las probabilidades para un camino aleatorio unidimensional y podemos


reinterpretar el resultado en trminos estadsticos.
Realicemos algunas iteraciones hacia atrs del esquema discreto (20) para

= 1/2:


1 n1
n1
Um1 + Um+1
2

1 n2
n2
n2
=
Um2 + 2Um
+ Um+2
4

n
Um
=

1
multiplica a todos los trminos, donde j es
2j
el nmero de iteraciones realizadas. Los coecientes que acompaan a cada uno de los valores
n2
Um
corresponden al nmero de caminos que pueden realizarse dando dos pasos temporales,
n
para llegar a Um (vase la gura).
Ya en estas dos iteraciones podemos observar que

esqnumerico.eps

30

Desde la posicin

(m + 1, n 2)

no puede accederse a

(m, n)

en slo dos pasos y por lo

tanto le corresponde un cero en el coeciente. A medida que seguimos iterando, el nmero de


j
caminos partido por 2 no es otra cosa que la probabilidad de llegar al punto (i, n j) desde
la posicin

(m, n) cuando realizamos una caminata aleatoria con probabilidad 1/2 de ir hacia

cualquiera de los costados. De este modo podemos escribir


X

n
=
Um

w(i m, n) Ui0 .

(21)

i
Esta ecuacin nos permite interpretar a

n
Um

como el

valor esperado

de los valores iniciales

Ui0

sobre el espacio de probabilidad de los caminos que unen el punto (m, n) con la recta del nivel
0
incial. Utilizando la frmula asinttica para w(m, n) (vase (5)), Ui = u(ih, 0), t = nk , x = mh,
y el hecho de que solamente la mitad de los puntos aportan al promedio, podemos escribir

Um,n
En este caso

k
h2

1X
=
2 i

2
2 k k(ihx)
e 2h2 t u(ih, 0)h .
t h

1
y obtenemos
2D

X (ihx)2
1
e 4Dt u(ih, 0)h ,
Ux/h,t/k =
2 Dt i
y utilizando el resultado de convergencia numrica para

1
u(x, t) =
2 Dt

h, k 0:

(yx)2
4Dt

u(y, 0)dy ,

donde recuperamos la expresin calculada mediante la transformada de Fourier en A, pero con


(yx)2

e 4Dt
dy , es una medida sobre la recta, para cada x, t
2 Dt
jos y la solucin de la ecuacin del calor es el
del dato inicial con respecto a
una nueva interpretacin: La funcin

esta densidad de probabilidad para cada

hacia atrs.

valor esperado

x, t.

Ntese que ahora estamos

mirando el problema

Es decir, asignamos una densidad de probabilidad en el nivel de tiempo inicial

recorriendo hacia atrs los caminos que salen de

(x, t)

y llegan al nivel inicial.

Por otra parte, teniendo en cuenta que la variable aleatoria es el proceso de Wiener a tiempo

t,

podemos interpretar el resultado anterior como el siguiente valor esperado:

u(x, t) = E [u0 (x + Wt )] ,
donde

es el valor esperado de la variable aleatoria

Wt

denida en el conjunto de caminos

continuos que salen del origen y la integracin se realiza respecto de la medida de Wiener.

4.2. La ecuacin del calor con una fuente


Consideremos el siguiente problema de valor inicial (caso en que

1 2u
u
=
+ (x) ,
t
2 x2

D = 1/2)

u(x, 0) = (x)

(22)

Aproximemos la ecuacin por el esquema explcito en diferencias:

n+1
n
n
= U nm+1 + (1 2)Um
+ Um1
+ km
Um
31

:=

1 k
.
2 h2

n
enm := Um
unm


n
n
n
n
= enm+1 + (1 2) enm + enm1 un+1
m um + um+1 2um + um1 + km

Mostremos la convergencia del esquema, sea

en+1
m

Donde, al ser vlida la consistencia del mtodo

u
k + o(k)
t

n
un+1
m um =

 k 2u
unm+1 2unm + unm1 =
+ k oh (1) (oh 0, h 0)
2 x2
De este modo

un+1
m

unm

unm+1

2unm

unm1


u 1 2 u
+
k + o(k) + koh (1)
=
t
2 x2
= km + o(k) + koh (1)


Obtenemos entonces:

en+1
= enm+1 + (1 2) enm + enm1 + o(k) + koh (1)
m
Si

1/2

obtenemos la acotacin, deniendo

en = maxm |enm |:

en+1 en + o(k) e0 + (n + 1)(o(k) + koh (1))


h, k 0

De modo que el esquema es convergente para


Elegimos ahora

= 1/2

con

1/2,

es decir

k h2 .

y escribimos algunos pasos del mtodo numrico

1 n1
1 n1
n
+ Um1
+ km
Um
= U
2 m+1 2
 1
1 n2
1
n2
n2
=
Um+2 + 2Um
+ Um2
+ km+1 + km1 + km
4
2
2

n2
= E Um+X2 + kE [(xm + hX1 )] + kE [(xm + hX0 )]
donde

Xn =

n
X

Bi ,

X0 = 0

(23)

i=1
es una caminata aleatoria con pruebas independientes dadas por:

(
1
Bi =
1
y

E[]

con probabilidad
con probabilidad

1/2
1/2

representa el valor esperado de la variable aleatoria correspondiente. Si seguimos este

esquema hasta el nivel de tiempo inicial, podemos escribir

n
Um

= E [(xm + hXn )] +

n
X

kE [(xm + hXi )]

i=1

h, k 0 con h2 /k = 1, podemos escribir


Z
Z t Z
u(x, t) = dW (x + Wt ()) +
ds dW (x + Ws ())
0


Z t
= E (x + Wt ) +
(x + Ws ) ds

tomando lmite para

(24)

0
donde, como antes, la integral se realiza en el espacio de caminos continuos denidos en el
intervalo

[0, t]

respecto de la medida de Wiener. Esta representacin es otro caso simple de la

frmula de Feynman-Kac.
32

Vericacin
La ecuacin con fuente puede resolverse formalmente sumando una solucin particular con
valor inicial cero y una solucin de la ecuacin homognea (

0). La solucin particular viene

dada por la expresin:

up (x, t) =

(ts) 2

e 2 x2 (x) ds
0

Z t Z +
0
0
=
(x x , t s)(x) dx ds
0


Z t Z +
(h, )(x + h) dh d
=
h=x0 x, =ts 0

Z t
E[(x + W )] d
=
0

Tenemos entonces la misma expresin que antes.

4.3. La ecuacin del calor con potencial


Consideremos ahora la ecuacin

u
1 2u
=
+ V (x)u
t
2 x2
donde

representa un

potencial

u(x, 0) = (x)

que asumiremos acotado, esto es

(25)

|V (x)| M .

Proponemos la discretizacin numrica

n
n
n
n
n+1

2Um
+ Um1
Um
Um
1 Um+1
1 n
n
=
+
U
V
+
U
V
m+1
m1
m+1
m1
k
2
h2
2

(26)

El esquema del lado derecho est elegido especialmente para conseguir una interpretacin estocstica ms directa. Reescribimos la relacin en la forma

n+1
Um


=




k
k
n
n
n
+ Vm+1 Um+1 + (1 2) Um + + Vm1 Um1
2
2

(27)

Veamos que el trmino nuevo en (26) no destruye la consistencia del mtodo numrico:




 1
1 n
u
V
n
n
u
Vm+1 + um1 Vm1 =
um + h
+ o(h)
Vm +
h + o(h) +
2 m+1
2
x
x



1
u
V
n
um h
+ o(h)
Vm
h + o(h)
2
x
x
= unm Vm + o(h)
La convergencia del esquema puede mostrarse siguiendo pasos anlogos a los de la ecuacin
del calor con una fuente.

en+1
m


=




k
k
n
n
+ Vm+1 em+1 + (1 2)em + + Vm1 enm1 + o(k) + koh (1)
2
2
33

Podemos acotar asumiendo que

1/2

y que

kM 2,

as garantizamos que los parntesis

sean positivos:

en+1 (1 + kM ) en + o(k) + koh (1)


(1 + kM )2 en1 + (1 + kM ) (o(k) + koh (1)) + (o(k) + koh (1))
1 (1 + kM )n+1
n+1 0
. . . (1 + kM )
e +
(o(k) + koh (1))
1 (1 + kM )
(1 + kM )n+1 1
eM t 1
=
(ok (1) + oh (1))
(ok (1) + oh (1)) .
M
M
Donde vemos que el algoritmo es convergente para
Elegimos ahora

= 1/2

h, k 0.

y obtenemos el esquema

1 n1
1 n1
n
= Um+1
(1 + kVm+1 ) + Um1
(1 + kVm1 )
Um
2
2
Escribamos

ekVj = 1 + kVj + o(k)


de modo que el algoritmo nos queda

1 n1 kVm+1 1 n1 kVm1
n
Um
= Um+1
e
+ Um1 e
+ o(k)
2
2
donde

o(k)

est uniformemente acotado con

|V | M .

Una iteracin ms del algoritmo nos da la expresin:

n
Um
=

 kVm1
 kVm+1 1 n2 kVm
1 n2 kVm+2
n2 kVm2
n2 kVm
Um+2 e
Um e
+ Um2
+ Um
e
e
e
e
+ o(k)
+
4
4

 1 n2 kVm1 +kVm2
1 n2 kVm+1 +kVm+2 1 n2 kVm+1 +kVm
e
e
+ Um e
+ ekVm1 +kVm + Um2
+ 2o(k)
= Um+2
4
4
4
Esto lo escribimos ahora en una notacin ms sugerente:

n
Um
=

caminos

caminos

P2
1 n2
i=1 kVm+Xi () + 2o(k)
U
e
m+X
()
2
22
Pn
1 0
i=1 kVm+Xi () + no(k)
U
e
m+X
()
n
n
2
Rt

k0
donde

Xi ,

(xm + Wt ()) e

V (xm +Ws ())ds

dW

es la caminata aleatoria discreta denida en (23) y denotamos con

a los caminos

discretos de esta variable.


Utilizando el resultado de convergencia obtenemos la frmula de Feynman-Kac para la
solucin de la ecuacin del calor con potencial:

Rt

Z
u(x, t) =

(x + Wt ()) e

34

V (x+Ws ())ds

dW

(28)

Observacin
Vamos a interpretar el lado derecho de la frmula (28). Suponiendo la existencia de una
solucin

u de (25), construimos el siguiente proceso estocstico basado en el proceso de Wiener


Rs

s = u(x + Ws , t s) e
Para

s=0

la variable

V (x+W )d

es determinista (esto es, toma un nico valor con probabilidad 1) que

viene dado por

0 = u(x, t) .
Si dejamos evolucionar a

hasta

s=t
Rt

t = u(x + Wt , 0) e

tenemos que

V (x+W )d

Rt

= (x + Wt ) e

V (x+W )d

Tomando ahora valor esperado sobre los caminos continuos obtenemos la expresin

Rt

E[t ] = E[(x + Wt ) e

V (x+W )d

Si queremos que esta frmula represente a la solucin de (25), esto debe coindidir con

u(x, t) = 0 .

Es decir que

E[t ] = 0

t > 0 .

Una forma de vericar esto es calcular la siguiente derivada

Rs
d
E[u(x + Ws , t s) e 0 V (x+W )d ]
ds
y comprobar que es cero para todo valor de

s. En ese caso, la solucin coincidir con la frmula

de Feynman-Kac para la ecuacin con potencial.

5. Introduccin
Los conocimientos bsicos de Teora de las Probabilidades necesarios para seguir el curso
pueden encontrarse en el captulo 2 del libro [Evans]. Dicho texto tambin proporciona un
enfoque complementario sobre algunos de los temas expuestos en estas notas.
En la seccin primera recapitulemos brevemente algunos de los conceptos vistos en la parte
primera del curso. A continuacin, en la seccin segunda describiremos con detalle la construccin de la medida de Wiener y del movimiento Browniano.

6. Construccin de una caminata aleatoria innitesimal


Hemos considerado el movimiento de una partcula que describe una
la recta real

R.

La posicin

Xn

de la partcula tras

nN

caminata aleatoria

en

pasos temporales viene regida por

las siguientes leyes:


1. En el instante inicial la partcula se encuentra en el origen:

X0 = 0.

h > 0,
n N,

2. A cada paso temporal, la partcula se mueve una distancia


izquierda con probabilidad

1/2.

En otras palabras, para

Xn = Xn1 + hBn ,
donde

Bn

ja, a la derecha o a la

(29)

es una variable aleatoria tal que

P (Bn = 1) = P (Bn = 1) = 1/2.


35

(30)

3. El incremento de la posicin de la partcula en un paso de tiempo


los incrementos correspondientes a los pasos
aleatorias

Bn , n N,

1, ..., n 1.

es independiente de

Ms precisamente, las variables

son independientes dos a dos.

El problema principal al que hemos dedicado el primer captulo del curso fue el de construir
una ley de propagacin

Wt ,

t [0, ),

denida para instantes de tiempo

innitesimal, de la caminata aleatoria. Con ello queremos decir:


(i) para cada instante

t>0

que fuera una versin

la partcula se desplaza hacia la derecha o la izquierda de forma

aleatoria.

Wt+h Wt a
t es independiente del recorrido previo de la partcula Ws para s t.

(ii) al igual que ocurre con la caminata aleatoria, el incremento de la posicin


partir de un instante

Dicho problema fue contemplado originalmente por Albert Einstein (1905) en su intento
formular una teora cuantitativa que describiera las observaciones realizadas, entre otros, por el
botnico Robert Brown (alrededor de 1827) sobre el movimiento, aparentemente catico, que
describen pequeas partculas de polen en suspensin sobre un lquido.

4 Debido a considera-

ciones fsicas  las partculas no saltan instanneamente de una posicin a otra  requeriremos
tambin que el proceso
(iii) los caminos

(Wt )t0

Para construir

N N

Wt

Wt

satisfaga:

son continuos.

hicimos lo siguiente. Fijado

t [0, )

dividimos el intervalo

[0, t]

en

partes iguales; escribirmos

k := t/N,
y, para

n = 0, ..., N ,
k
Wnk
:= Xn ,

Wt como el lmite, cuando k 0+ ,


Wtk de la partcula es cero:
 
E Wtk = 0.

con la intencin de denir


En media, la posicin

de los

Wtk = WNk k .

No obstante, su desplazamiento cuadrtico medio es:

E
As pues, si hacemos tender

2
Wtk

h2
= h N = t.
k
2

(31)

a cero sin ms, obtenemos que dicho desplazamiento converge a

innito. Si pretendemos obtener un lmite no trivial, hemos de reescalar tambien el parmetro


2
espacial h. Si hiciramos tender h a cero de modo que h /k 0 la identitad (31) sugiere
que el proceso lmite obtenido es determinista, en el sentido de que la partcula permanece
indenidamente en su posicin inicial
2
Si elegimos h de modo que h /k

W0 = 0.
2D > 0

entonces el teorema de Laplace-de Moivre

garantiza que:

lm + P A

h,k0
h2 /k2D

Wtk

1
B =
4Dt


media cero y desviacin tpica

2Dt.

(32)

Por tanto, la ley de probabilidad de un eventual proceso lmite

x2

e 4Dt dx.

Lo hecho hasta ahora

Wt

ha de ser una normal de

no prueba

an la existencia del

4 Un comentario ms detallado de los aspectos histricos del decubrimiento del movimiento Browniano puede
encontrarse en el libro [Nelson67].

36

Wt . Simplemente
armar que, de existir Wt , ste ha de estar distribuido

 permite
2Dt .
segn una ley normal N 0;
Para obtener la ley de Wt nos hemos servido de una caminata aleatoria cuyos incrementos

proceso lmite

estn distribuidos segn una ley muy particular (30). Es natural preguntarse si el resultado
nal (32) depende de esta circunstancia. Dicho de otro modo: tomemos incrementos

Bn

in-

dependientes e idnticamente distribuidos  no necesariamente segn (30)  y formemos la


k
correspondiente caminata aleatoria (29); puede el lmite de los nuevos Wt seguir una ley que
no sea normal? La respuesta a esta pregunta es negativa, y se conoce como

del Lmite.

Teorema 6.1

(Teorema Central del Lmite)

Sean

dientes, idnticamente distribuidas, con media cero


Entonces, para todos los reales


lm P

a<b

Teorema Central

Bn , n N, variables aleatorias indepenE [Bn ] = 0 y varianza nita E [Bn2 ] = 2 .

se tiene

B1 + ... + Bn

b
a
n


=

1
2 2

x2

e 22 dx.

Vemos por tanto que la distribucin normal aparece de forma natural como la nica distribucin posible para el proceso lmite
suele decir que el

Wt

es un

Wt ; dicho fenmeno se comoce como universalidad

objeto universal. Vimos tambin en el captulo 3 de la primera parte,

procediendo de forma anloga, que para


de ser independiente de

y se

si

t>s0

 Wt Ws

necesariamente el incremento

y ha de tener una distribucin

N 0; t s

ha

7. El movimiento Browniano y la medida de Wiener


Lo hecho hasta ahora nos conduce a introducir la siguiente denicin.

Denicin 7.1.

Una familia de variables aleatorias reales

5
espacio de probabilidad

(, P)

es un

proceso de

Wiener 6 o

Wt , t [0, ),

denidas sobre un

movimiento Browniano 7

estndar

si cumple las siguientes condiciones:

B1. W0 = 0.
B2. Dados 0 t1 t2 ... tn

los incrementos

Wtn Wtn1 ,

Wtn1 Wtn2 ,

... Wt2 Wt1

son independientes.


B3.Para
N 0; h .

todos

t 0

h > 0,

el incremento

Wt+h Wt

tiene una distribucin normal

B4. Para casi todo se tiene que t 7 Wt () es una aplicacin continua.


Esta denicin es un poco distinta de la que dimos en el captulo 3 de la primera parte de
las notas. Recurdese la notacin:

(x, t) :=

1 x2
e 2t ,
2t

para

t > 0.

Escribiremos tambin:

(x, 0) := 0 (x) ,
5 Salvo en los casos en que pueda haber ambigedad, no haremos referencia explcita a la sigma lgebra de

sobre que la que denimos la probabilidad

P.

6 Esta es la terminologa preferida por los fsicos.


7 Es el trmino ms utilizado en la literatura matemtica.
37

siendo

la medida de Dirac centrada en el orginen

distribucin de

W0

es precisamente

0 .8

x = 0.

La condicin B1 expresa que la

La hiptesis B2 puede parecer un poco extraa en un primer contacto. Claramente, implica

Wt+h Wt

que

Ws

es independiente de

para todos los

s t.

El hecho de introducir esta

condicin ms fuerte es que determina de forma nica la distribucin conjunta de las variables

Wt1 , Wt2
para cualquier eleccin de

... , Wtn

0 t1 t2 ... tn .

(33)

Dicha ley necesariamente es:

P (Wt1 A1 , Wt2 A2 , ...Wtn An )


Z
Z Z
...
(x1 , t1 ) (x2 x1 , t2 t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn ,
=
A1
para

A2

A1 , ..., An R

(34)

An
Boreliamos.

9 En otras palabras, para toda funcin

: Rn R

medible, se

tiene

Z
(x1 , ..., xn ) (x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn ,

E [ (Wt1 , ..., Wtn )] =

(35)

Rd
siendo

la esperanza tomada respecto a

P.

Es fcil demostrar que si un proceso verica que la ley conjunta de (33) viene dada por
(34) entonces automticamente se tiene B2 y B3.
Consideremos la siguiente condicin: B3'.

Para todos t 0 y h > 0, los incrementos

Wt+h Wt estn idnticamente distribuidos.

Puede demostrarse, utilizando el Teorema

Central del Lmite que B2, B3' y B4 implican B3. Los procesos que verican B2 y B3' se
conocen como

procesos de Lvy.

A continuacin describimos cmo construir un espacio de probabilidad


movimiento Browniano

(, P)

dotado de un

Wt .

7.1. Sobre el espacio muestral

Supongamos por un momento que hemos construido un movimiento Browniano Wt en un

espacio de probabilidad (, P ); esto es, Wt satisface B1,...,B4. Cada dene a travs del
movimiento Browniano un camino

[0, ) 3 t 7 Wt () .
Dicho de otro modo, un movimiento Browniano induce una aplicacin:

W : R[0,)
7 (Wt ())t[0,) ;

todas

[0,)
es conviente recordar que el producto cartesiano R
es por denicin el conjunto de

las funciones de [0, ) en R. La aplicacin W


es Borel medible, puesto que cada una de sus

componentes Wt lo es. La probabilidad P induce, a travs de la aplicacin W , una medida


8 Para una funcin medible de R se tiene
(x) d0 (x) = (0).
R
9 Si t = 0 hay que interpretar en (34) la integral respecto a la medida

0 (x1 ).
38

(x1 , 0) dx1

como la integral respecto

de probabilidad

en los Borelianos de

R[0,)

E R[0,)

del siguiente modo: para

Boreliano,

ponemos


P (E) := P W E


= P : W () E .
P se suele llamar distribucin del proceso Wt . De hecho, P es la distribucin conjunta
[0,)
de todas las variables aleatorias Wt para t [0, ). Si F : R
R es medible entonces se
tiene
Z
Z


F W dP =
F () dP () .
(36)

La medida

R[0,)

Es sencillo demostrar el siguiente resutado.

Proposicin 7.2. Todos los movimientos Brownianos tienen la misma distribucin P. Ms an,
si

Wt : R[0,) R

Wt () := (t) entonces Wt
[0,)
probabilidad R
,P .

est denida por

denido sobre el espacio de

Vemos pues que existe una representacin

es un movimiento Browniano

cannica del movimiento Browniano. El problema

de su construccin es equivalente al de encontrar una medida de probabilidad sobre


la cual el proceso

R[0,)

para

Wt () := (t) es un movimiento Browniano. Dicha medida existe y se conoce

como la medida de Wiener. Describiremos a continuacin un modo de construirla. En lo sucesivo


utilizaremos el smbolo P exclusivamente para referirnos a la medida de Wiener y escribiremos,
[0,)
para R
, Wt () := (t).
De los axiomas B1,..., B4 de la denicin del movimiento Browniano inferimos las siguientes
propiedades para la medida de Wiener

E R[0,)
... tn :

1. Si

P.

es una interseccin de ventanas elementales, esto es, para ciertos

E = C[a1 ,b1 ];t1 ... C[an ,bn ];tn



= R[0,) : aj (tj ) bj

para

j = 1, ..., n

0 t1

entonces, utilizando (34), deducimos:

b1

P (E) =

bn

(x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn .

...
a1

2. La frmula anterior se puede generalizar del siguiente modo. Si


de la forma

(37)

an

es una funcin medible

F () = F ( (t1 ) , ..., (tn )) entonces, debido a (35) y (36):


Z
F ( (t1 ) , ..., (tn )) dP ()
R[0,)
Z
=
F (x1 , ..., xn ) (x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn

(38)

Rn
3. Una consecuencia inmediata de (37) es que


R[0,) : (0) 6= 0 = 0.

4. La propiedad B4 de la denicin de

Wt

es equivalente a armar:

P (C0 ([0, ) ; R)) = 1,


C0 ([0, ) ; R)
(0) = 0.

donde
que

denota el conjunto de los caminos continuos

La construccin que daremos de la medida

(39)

[0, )

en

tales

se basa en probar que la denicin a travs


P a todos los Borelianos de R[0,) . El

de (38) permite extender de forma nica la medida

instrumento que permite esta extensin es el Teorema de Riesz-Markov.


39

de

7.2. El teorema de Riesz-Markov


El Teorema de Representacin de Riesz-Markov permite identicar ciertas medidas de

10 en un espacio topolgico

Borel

Cc (X),

con funcionales lineales denidos sobre

el espa-

cio de las funciones continuas, a valores reales y con soporte compacto, denidas sobre

separable y localmente compacto.


Teorema 7.3 (Riesz-Markov). Sea L una aplicacin lineal de Cc (X)
Supondremos que

esto es,
de

Lf 0

para

X.

es

f 0,
L:

entonces existe una nica medida

en

R.

Si

es positiva,

denida sobre los borelianos

que representa a

Z
Lf =

f (x) d (x) ,

para toda

f Cc (X) .

(40)

X
La medida

verica adems que

(K)

es nita para todo compacto

K X.

La demostracin y varias de las aplicaciones de este resultado pueden leerse en [Rudin].


Hagamos algunas observaciones antes de proseguir.

L es positiva entonces es automticamente continua. Basta observar que, para f


Cc (X) con soporte en un compacto K X se tiene: |Lf | L |f | CK maxxX |f (x)|
con CK := L para Cc (X), con 0 e identicamente igual a uno sobre K .

1. Si

2. La medida

que verica (40) se dene del siguiente modo. En primer lugar, para un

conjunto abierto

V X

ponemos:

(V ) := sup {L : Cc (X) ,
Una vez hecho esto, denimos para

EX

0 1,

sop V } .

arbitrario:

(E) := nf { (V ) : V X

abierto y

E V }.

(41)

3. La expresin (41) no dene una medida sobre todos los subconjuntos de


probar que

es una medida sobre los borelianos de

X.

De hecho,

X.

S es posible

puede denirse sobre

A un poco mayor, que se forma aadiendo a los borelianos todos


E X con la propiedad de que E est contenido en un boreliano B con

una sigma lgebra


los conjuntos

(B) = 0.
4. Si

no es demasiado patolgico

11 entonces es posible demostrar que

(E) = sup { (K) : K

compacto y

adems verica:

K E} .

(42)

5. El Teorema de Riesz proporciona un modo de denir la integral de Lebesgue en



d
partir de la de Riemann. Consideramos la aplicacin lineal sobre Cc R :

Rd

Z
Lf :=

f
Rd

donde la integral se intepreta en el sentido de Riemann. Claramente,


que el Teorema de Riesz garantiza la existencia de una medida

es positiva por lo

que satisface:

Z
f=

Rd

f (x) dm (x) ,
Rd

siendo la segunda integral la denida mediante la teora de la medida. Esfcil probar que
m es precisamente la medida de Lebesgue sobre Rd .

10 Se llama

medida de Borel

sobre un espacio topolgico

generada por los conjuntos abiertos de

X.

a una medida denida sobre la sigma lgebra

Los elementos de dicha sigma lgebra se denominan

11 No demasiado patolgico quiere decir aqu que todos los abiertos de

compactos.

40

Borelianos.

son unin numerable de conjuntos

6. Otra medida importante es la que resulta de evaluar en un punto. Tomemos


denamos

De nuevo

x0 X

Lx0 : Cc (X)
R
.

7 (x0 )
L x0

es lineal y positivo. Por tanto existe una medida

x0

con la propiedad:

Z
(x) dx0 (x) = (x0 ) .
X
Dicha medida se conoce como la
que

x0 (E) = 0

En el caso de

si

x0
/E

X = Rd

y que

masa de Dirac

centrada en

x0 .

Es inmediato comprobar

({x0 }) = 1.
Rd )

(o un abierto de

el teorema de representacin de Riesz puede

renarse notablemente.

Teorema 7.4

d
0
una distribucin positiva, esto es, que verica
Sea T D R

d

T () 0 para toda Cc R tal que 0. Entonces existe una medida , con las
mismas propiedades que en el Teorema 7.3 que verica:
(Schwartz)

Z
T () =

(x) d (x) .
Rd

La demostracin puede encontrarse, por ejemplo, en el altamente aconsejable [LiebLoss].




Vemos pues que, por el simple hecho de ser positiva, T puede extenderse de Cc
Rd a todas
las funciones Borel medibles de soporte compacto.

7.3. La construccin de la medida de Wiener


La construccin que daremos es debida a E. Nelson [Nelson64]. Probaremos en esta seccin
el siguiente resultado.

Proposicin 7.5.

[0,)
sobre los Borelianos de R
que satisface (37), (38).

[0,)
Como consecuencia de esto, el proceso en R
, P denido por Wt () := (t) cumple la
Existe una medida

propiedades B1, B2 y B3.


La idea que seguiremos es la de denir un funcional

L que se comporte como (38) sobre fun[0,)


ciones que dependen de un nmero nito de coordenadas. Ms concretamente, si F : R
R
es de la forma

F () = F ( (t1 ) , ..., (tn )) ,

para ciertos

0 t1 ... tn ,

(43)

entonces denimos, basndonos en (38),

Z
L (F ) :=

Z
F (x1 , ..., xn ) (x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn .

...
R

(44)

Se nos presentan dos grandes diculdas para aplicar el Teorema 7.3 en este contexto.
Si X es innito dimensional entonces no es localmente compacto  por ejemplo, C ([0, ) ; R),
RN o un espacio de Hilbert de dimensin innita no son localmente compactos. Ms precisamente, es fcil probar que un producto de espacios localmente compactos es localmente compacto si y slo si todos los factores, salvo eventualmente un nmero nito, son
compactos.
Lo que es ms importante, una funcin continua de la forma (43) no pertenece a
41

Cc R[0,)

Un modo de rodear estas dicultades es el siguiente. Denotemos por


de
de

R obtenida aadiendo un punto al innito; es decir, R : = R {}


se denen como los complementarios de los compactos de R.

la compacticacin

y los entornos abiertos

El espacio producto

:= R [0,)
12 y contiene

R[0,) ;

Cc () = C (). Es en este marco


consta simplemente de los caminos de
R que pueden eventualmente
pasar por el innito y que C := C () se puede identicar con las

[0,)
cuyas coordenadas tienen lmites nitos e idnticos en .
funciones de C R
Denotemos por Cn al conjunto de las funciones F continuas de en R de la forma (43). En
otras palabras, Cn es subconjunto de C := C () constituido por las funciones que dependen
nicamente de un nmero nito de variables. Denimos sobre Cn un funcional L mediante la
formula (44). El funcional L est bien denido, puesto que:

es automticamente compacto

ms an,

donde aplicaremos el teorema de Riesz. Obsrvese que

1. La integral que lo dene es siempre nita. Ms an,

|L (F )|

sup |F ()| .

(45)

R[0,)

2. La denicin (44) es consistente. Si

no depende de la coordenada tn claramente se tiene:

Z
F (x1 , ..., xn1 ) (x1 , t1 ) ... (xn xn1 , tn tn1 ) dx1 ...dxn

...
RZ

RZ

F (x1 , ..., xn1 ) (x1 , t1 ) ... (xn1 xn2 , tn1 tn2 ) dx1 ...dxn .

...

=
R

L es positivo sobre Cn . El teorema de Stone-Weierstrass13  vase [Dugundji]


 implica que Cn es denso en C ; ello, junto con la estimacin (45) permite asegurar que L se
puede extender a un funcional lineal positivo sobre C .
Es evidente que

Estamos en condiciones de aplicar el teorema de Riesz-Markov y as obtener la existencia


L. Denotamos por P a la restriccin de dicha medida a R[0,) ;

de una medida que representa a


claramente

satisface (37). Queda por comprobar que tambin verica (39).

7.4. La continuidad de las trayectorias del movimiento Browniano


Concluiremos la demostracin de la existencia de la medida de Wiener probando:

Teorema 7.7

(Wiener)

Las trayectorias del movimiento Browniano son continuas con prob-

abilidad uno:

P (C0 ([0, ) ; R)) = 1.


12 Un producto  eventualmente no numerable  de espacios compactos es compacto. Este resultado se conoce
como el teorema de Tychonov. Vase [Dugundji] para una demostracin.

13 La extensin de M. Stone del resultado clsico de aproximacin de funciones continuas por polinomios de

K. Weiertrass reza as:


Teorema 7.6. Sea

D C (X) un conjunto de contiene una funcin constante no


x, y X con x 6= y existe f D tal que f (x) 6= f (y). Entonces el
 generada por D es densa en C (X).

un espacio topolgico y

nula y que separa puntos  esto es, dados


lgebra  respecto ala suma y el producto

42

Sea

Z
(x, t) dt;

(, ) := sup
0<t

|x|>

claramente

(, ) = o ()

cuando

0.

Vamos a acotar la probabilidad de que un camino tenga una variacin de tamao mayor que

en funcin de . En todo lo que sigue, supondremos implcitamente


considerados vercan (0) = 0.

en un intervalo de longitud
que todos los caminos

Lema 7.8.

Sean

, > 0

0 t1 ... tn

tales que

E := { : | (ti ) (tj )| > 2


Entonces

P (E) 2

tn t1 < .

para ciertos


2

Consideremos el conjunto

i, j = 1, ..., n} .


, .

Demostracin. Basta probar que


P (A) 2


2


, ,

siendo

A := { : | (t1 ) (tj )| >


puesto que

para algn

j = 2, ..., n} ,

E A.

Vamos a descomponer

en distintas partes y estimar cada una de ellas. Sean

B := { : | (t1 ) (tn )| > /2} ,


Cj := { : | (tj ) (tn )| > /2} ,
Dj = { : | (t1 ) (tj )| >

| (t1 ) (tk )|

para

k j} .

Entonces se tiene:

ABC
siendo

C :=
A existe
Cj0 . As,

Esto es debido a que, dado


entonces necesariamente

[n
j=2

(Cj Dj ) .

un ndice menor

j0

para el cual

Dj0 .

Si

/ B

P (A) P (B) + P (C)


 
, + P (C) .
2
Ahora bien, visto que los incrementos

(tn ) (tj )

son independientes, tenemos

P (Cj Dj ) = P (Cj ) P (Dj )


 
, P (Dj ) .
2
Finalmente, como los

Dj

son disjuntos, se concluye la demostracin.

A partir de aqu la prueba del teorema es tcnica. Comencemos extendiendo el resultado a


un intervalo continuo de tiempos.
43

Lema 7.9.

Sea ahora, para

0a<b

ba

con

E (a, b, ) := { : | (t) (s)| > 2


Nuevamente,

P (E (a, b, )) 2

para ciertos


2

t, s [a, b]} .

, .

Demostracin. Sea S [a, b] nito y escribamos


E (a, b, , S) := { : | (t) (s)| > 2

para ciertos

t, s S} .

(46)

El lema anterior garantiza que

P (E (a, b, , S)) 2


2


, .

E (a, b, ) es la unin de los abiertos E (a, b, , S) cuando S


[a, b]. Ms an,

Claramente,
nitos de

recorre los subconjuntos

P (E (a, b, )) = sup P (E (a, b, , S)) ,


S

r>0

puesto que, dado

existe

K E (a, b, )

compacto  esto es una consecuencia del teorema

de Riesz  tal que

P (K) > P (E (a, b, )) r.


Necesariamente,

est contenido en la unin de un nmero nito de conjuntos (46) y dicha

E (a, b, , S).

unin es tambin un conjunto de la forma

Por tanto

P (E (a, b, , S)) > P (E (a, b, )) r,


lo cual concluye la demostracin.

Lema 7.10.

Sea

kN

y supongamos que

1 N.

F (k, , ) := { : | (t) (s)| > 4


Entonces

Sea

para ciertos

t, s [0, k] , |t s| < } .

k  
P (F (k, , )) 2 , .

Demostracin. Podemos escribir [0, k] como unin de los subintervalos


[0, ] , [, 2] , ...., [(k 1) , k] .
Si

F (k, , )

entonces

| (t) (s)| > 4 para t, s en el mismo subintervalo o en subin pertenece a E (a, b, ) siendo [a, b] uno de los dos

tervalos consecutivos. En cualquier caso


subintervalos.

Para concluir la prueba del Teorema basta observar que:

\ \ [

C0 ([0, ) ; R) =

kN nN mN
En particular, como cada uno de los

F (k, 1/n, 1/m)c

1 1
k, ,
n m

es cerrado,

c
.

C0 ([0, ) ; R) es un Boreliano.

Por otra parte,

C0 ([0, ) ; R) =

[ [ \
kN nN mN
44


F

1 1
k, ,
n m


,

y claramente,

\


mN

1 1
k, ,
n m



 

1 1
= lm P F k, ,
= 0,
m
n m

con lo que

P (C0 ([0, ) ; R)) = 1.


F
La construccin privilegiada por muchos textos se basa en probar que una medida que
satisface (37) se puede extender a una medida de probabilidad sobre la sigma lgebra

B0

gen-

erada por las ventanas elementales (se utiliza el conocido como Teorema de extensin de Kolmogorov). Este enfoque tiene algunos inconvenientes tcnicos. Por ejemplo, como resultado
de ello, el conjunto

C0 ([0, ) ; R) no es B0 -medible

 aunque puede probarse que existe un

conjunto que diere de l en un conjunto de medida nula que s lo es. Ello es debido a que

B0

es estrictamente menor que la sigma lgebra de los Borelianos. Para darse cuenta de el-

lo basta observar que cualquier union o interseccin numerable de ventanas elementales slo
depende de una cantidad numerable de componentes

{ : (t) > a

para algn

t R}

tj ,

mientras que un conjunto del tipo


[0,)
es un abierto  y por tanto un Boreliano  de R
. En par-

ticular, los anlogos de los lemas 7.9 y 7.10, que en nuestro caso son triviales, son mucho ms
difciles de demostrar si uno trabaja con

B0 .
RN

La construccin original de N. Wiener se basa en tomar en

(equipado de una medida

Gaussiana) una sucesin Gn , n = 0, 1, 2, ... de variables N (0; 1) independientes y denir para


RN el camino Wt ()mediante una serie de Fourier con coecientes aleatorios:
n

2X
1
X
senkt
.
Gk (kt)
Wt () := G0 () t + 2
k
n1
n=1
k=2

Wiener demostr que la serie converge para casi todo

a una funcin continua en

t.

En el

captulo 3 de [Evans] puede encontrarse una demostracin basada en ideas similares, aunque
tcnicamente mucho ms sencilla, debida a P. Lvy.
Es posible demostrar que las trayectorias del movimiento Browniano son ms regulares de
C0 ([0, ) ; R) el espacio de los caminos Hlder de exponente > 0

que arrancan del origen, esto es, C0 ([0, ) ; R) si (0) = 0 y, dado k > 0, existe K tal

lo que hemos probado. Sea


que, para todos

t, s [0, k]
| (t) (s)| K |t s| .

Teorema 7.11.

0 < < 1/2 entonces P (C0 ([0, ) ; R)) = 1. Si 1/2 entonces


P (C0 ([0, ) ; R)) = 0. En particular, con probabilidad uno las trayectorias del movimiento
Si

Browniano no son diferenciables.

Ejercicio 7.12.

Sea

SR

un Boreliano de medida cero. Prubese que el conjunto

S := { : (t) S

para un conjunto de tiempos

verica

P (S ) = 0.
Advertencia: ante todo hay que probar que

es medible.

45

de medida positiva}

8. Frmula de Feynman-Kac y ecuaciones en derivadas


parciales
8.1. Introduccin
Vimos en la primera parte del curso que la medida de Wiener conduca a una representacin
muy sugerente para las soluciones de la ecuacin del calor. Concretamente, si

con, pongamos,

Kac :

t u (x, t) 12 u (x, t) = 0,

u (x, 0) = (x) ,

L2 Rd , entonces u

es solucin de

(x, t) Rd [0, ) ,

puede representarse mediante la

(47)

fmula de Feynman-

Z
u (x, t) =

(x + (t)) dP,

(48)

donde

:= C0 ([0, ) ; R)

14 Esta representacin propor-

denota la medida de Wiener.

ciona un marco comn para la resolucin de ecuaciones en derivadas parciales de carateres, en


principio, muy diversos.
Ilustremos esto con la ecuacin:

t u (x, t) v x u (x, t) = 0,

(x, t) Rd [0, ) ,

u (x, 0) = (x) ,
para

v Rd .

(49)

Claramente,

u (x, t) = (x tv) ,
y podemos escribir,

Z
u (x, t) =

(x + (t)) dMv ,

siendo

Mv

que satisface:
n
o
Mv (tv)t[0,)
= 1.

la medida de probabilidad sobre

Pese a que (47) es parablica y (49) es hiperblica, ambas ecuaciones admiten una solucin en
trminos de una integral del dato inicial en el espacio de caminos

Llevados por esta analoga, podemos decir que las trayectorias del movimiento Browniano
son las curvas caractersticas de la ecuacin del calor. De hecho, esta armacin es ms que una
mera analoga. En la seccin siguiente mostraremos una aplicacin de la frmula de FeynmanKac (en su versin con potencial, que describimos a continuacin) al estudio del comportamiento
de los autovalores de un operador de Schrdinger.

8.2. La frmula de Feynman-Kac para 12 + V


Nuestro objetivo ser derivar una frmula anloga a (48) para las soluciones de la ecuacin
del calor con potencial:

t u (x, t) 21 u (t, x) + V (x) u (t, x) = 0,

(x, t) Rd [0, ) ,

u (x, 0) = (x) .

(50)

Concretamente, probaremos el resultado siguiente:

14 Conviene observar que la demostracin de esta frmula es elemental una vez que se conoce la frmula
explcita para la solucin fundamental para la ecuacin del calor en

46

Rd .

Teorema 8.1 (Frmula


de Feynman-Kac).


y sea

C R

que la solucin

Sea

Rd

una funcin continua y acotada de

15 Entonces, para todo


una funcin que se anula en el innito.

xR

en

R,

se tiene

de (50) viene dada por:

(x + (t)) e

u (x, t) =

Rt
0

V (x+(s))ds

dP.

(51)

Antes que nada, conviene saber que la frmula (51) es vlida bajo hiptesis mucho ms


2
dbiles sobre V y . Concretamente, basta suponer, por ejemplo, L
Rd y V L1loc Rd
esencialmente acotado inferiormente [Nelson64, TayPDEII].
La prueba que presentamos es debida a Nelson [Nelson64] y est basada en la frmula
de Lie para las soluciones de una ecuacin diferencial asociadas a la suma de dos campos de
vectores (que en el marco innito-dimensional se conoce como frmula de Trotter). Comencemos
recordando el resultado clsico de Lie:

Teorema 8.2

(Frmula de Lie)

Sean

matrices cuadradas

d d.

Entonces:

n
= lm et/nA et/nB .

et(A+B)

(52)

Este resultado expresa que, para calcular las soluciones de la ecuacin diferencial:

x = (A + B) x
basta saber resolver alternativamente las ecuaciones

y = Ay,
en intervalos de tiempo cortos

z = Bz,

t/n. Como es bien sabido, si A y B

conmutan

AB = BA entonces

la frmula anterior es una identidad:

et(A+B) = etA etB = etB etA .

Ejercicio 8.3.

Demuestra la frmula de Lie (52).

La frmula de Lie es vlida en un marco ms general que el que presentamos aqu (en concreto, es cierta en el contexto de espacios de Banach y generadores de grupos de contracciones,
vase [TayPDEII], Apndice 11.A). Nos limitamos a enunciar el resultado parcial que nos ser
til; en cuanto a su demostracin, remitimos al lector a las referencias antes citadas.

Proposicin 8.4.
la solucin

u (x, t)

Supongamos que

satisfacen las hiptesis del Teorema 8.1. Entonces

de (50) viene dada por:

u (x, t) = lm et/n/2 et/nV


n

De hecho, la convergencia en (53) es uniforme sobre

n

(x) .

(53)

Rd .

El aspecto notable de la identidad (53) es que slo involucra resolver la ecuacin del calor
et/2 y multiplicar por la funcin etV ; ambos pasos son explcitos.

sin potencial

Comencemos usando la frmula (48) para deducir:

t/n/2 t/nV

Z
(x) =

et/nV (x+(t/n)) (x + (t/n)) dP

Z
=

et/nV (x+x1 ) (x + x1 ) (x1 , t/n) dx1 ;

Rd
15 Con esto queremos decir que dado

>0

existe

K Rd
47

compacto tal que

| (x)| <

para

x Rd \ K .

ahora, repitiendo el clculo anterior y realizando dos sencillos cambios de variable obtenemos:

2
et/n/2 et/nV (x)
Z
Z
t/nV (x+(t/n))
=
e
et/nV (x+x1 ) (x + (t/n) + x1 ) (x1 , t/n) dx1 dP
d

R
Z
=
et/nV (x+x2 ) et/nV (x+x1 +x2 ) (x + x1 + x2 ) (x1 , t/n) (x2 , t/n) dx1 dx2
2d
ZR
et/nV (x+x2 ) et/nV (x+x1 ) (x + x2 ) (x1 , t/n) (x2 x1 , t/n) dx1 dx2 ,
=
R2d
y, reproduciendo el proceso anterior, obtenemos en general:

t/n/2 t/nV

n

et/n(V (x+xn )+...+V (x+x1 )) (x + xn )

(x) =
Rnd

(x1 , t/n) (x2 x1 , t/n) ... (xn xn1 , t/n) dx1 ....dxn .
Esta expresin no es ms que:

t/n/2 t/nV

n

Z
(x) =

et/n

Pn
j=1

V (x+(j/nt))

(x + (t)) dP,

(54)

esto es, la esperanza de la variable aleatora:

Rn (t,)

Ahora bien, si

(t)

(x + (t)) ,

donde

tX
Rn (t, ) :=
V (x + (j/nt)) .
n j=1

es continuo entonces, para todo

lm Rn (t, ) =

n
con lo que para

P-casi

todo

t R,

V (x + (s)) ds,
0

se tiene:

lm eRn (t,) (x + (t)) = e

Rt
0

V (x+(s))ds

n
Como

specto a

es acotada, tenemos que

eRn (t,) (x + (t))

(x + (t)) .

estn uniformemente acotadas (con re-

). As, podemos aplicar el teorema de la convergencia dominada y concluir, utilizando

(54) y (53) la frmula (51).

8.3. La frmula de Feynman para la ecuacin de Schrdinger


La idea de interpretar las soluciones de una ecuacin en derivadas parciales en trminos de
una integral sobre un espacio de caminos es debida originalmente a Feynman en el contexto de
sus investigaciones sobre la mecnica cuntica. Feynman se interes a interpretar las soluciones
de la ecuacin de Schrdinger en trminos de trayectorias clsicas (caminos). Tomemos la
ecuacin, para

h > 0:
iht u (x, t)

h2
u (t, x)
2

u (x, 0) = (x) L2

+ V (x) u (t, x) = 0,

Rd .

(x, t) Rd R,

(55)

Esta ecuacin es muy similar a la ecuacin del calor, excepto por la presencia de la unidad
imaginaria

frente a la derivada temporal (la constante


48

es irrelevante desde un punto de

vista puramente matemtico). Su presencia cambia radicalmente el carcter de la ecuacin;


supongamos por un momento

V = 0 y h = 1, entonces la solucin de (55) se calcula (utilizando,

por ejemplo la transformada de Fourier) y resulta en:

it

u (x, t) = e

(x) =

d/2

(2it)

ei|xy|

/2t

(y) dy.

Rd

h > 0, la solucin de (55) es simplemente u (x, t) = eiht (x). En particular, se comprueba
2
fcilmente que, a diferencia de la ecuacin del calor, la norma L
Rd de las soluciones de (55)
se conserva: ku (t, )kL2 Rd = kkL2 Rd .
( )
( )

Para

Al igual que sucede con la ecuacin del calor, es posible demostrar la siguiente frmula de
Trotter (suponemos, hasta que digamos lo contrario, que

Proposicin 8.5.
u (x, t)

Supongamos que

h = 1):

continua y acotada. Para todo

L2 Rd

, la solucin

de (55) viene dada por:

u (x, t) = lm eit/n/2 eit/nV


n

Calculemos dicho lmite. Comenzamos con

it/n/2 it/nV

(x) =

1
(2it)d/2


i nt

n

(x) .

|xy|2
V
2(t/n)2

(56)


(y)

(y) dy,

Rd

el cuadrado satisface:

2
eit/n/2 eit/nV (x)




Z
|xx2 |2
|x2 x1 |2
t
i nt
V
(x
)
i
V
(x
)
1
2
1
2
2(t/n)2
e
e n 2(t/n)
(x1 ) dx1 dx2
=
2d/2
2d
(2it)
R




Z
|xx1 |2
|x2 x1 |2
i nt
V (x1 )
i nt
V (x2 )
1
2
2
2(t/n)
2(t/n)
=
e
e
(x2 ) dx1 dx2 ,
(2it)2d/2 R2d
y, en general, escribiendo


it/n/2 it/nV n

x0 = x:

(x) =

0
1
2
xj xj1 |
P
|
n
@
i nt
V (xj )A
2
j=1

1
(2it)nd/2

tX
Sn (t, x0 , ..., xn ) :=
n j=1
j = 1, ..., n

(t)

(xn ) dx1 ...dxn .

Rnd

Si escribimos

entonces si

2(t/n)

es un camino denido en

[0, t]

!
|xj xj1 |2
V (xj )
2 (t/n)2
tal que

(0) = x0 = x

(57)

(jt/n) = xj

para

obtenemos que, formalmente, (57) es la suma de Riemann correspondiente a la

accin clsica:

Z t
S (t, ) :=
0


1
2
| (s)| V ( (s)) ds.
2

Este clculo motiv la escritura de solucin

u (x, t) de (55) como:


Z
eiSn (t,x,...,xn ) (xn ) dx1 ...dxn

1
u (x, t) = lm
n (2it)nd/2 Rnd
Z Z
=
eiS(t,) (y) dC () dy
Rd

1 ([0,t])
Cx,y

49

siendo

1
Cx,y
([0, t]) el conjunto de los caminos diferenciables que satisfacen (0) = x y (t) = y .

Este clculo es meramente formal. De hecho, es posible demostrar que no existe ninguna medida
sobre el espacio de caminos para la que la frmula anterior es vlida (vase [Cameron]). No
obstante, el proceso de paso al lmite dene una integral a la Riemann. Ms detalles sobre esta
construccin pueden encontrarse en [Nelson64].
Si tomamos

h>0

obtenemos:

eiS(t,)/h (y) dC () dy.

u (x, t) =
Rd

Ejercicio 8.6.
cuando

h 0,

1 ([0,t])
Cx,y

Aplica formalmente el principio de la fase estacionaria para obtener el lmite,


de la integral

eiS(t,)/h dC () .

1 ([0,t])
Cx,y

9. Aplicacin al estudio de los autovalores de un operador


elptico
9.1. Los autovalores del operador de Schrdinger 21 + V (x)
Sea

V L1loc Rd ; R

acotado inferiormente,

CV = essinf xRd V (x) > ,

(58)

lm essinf |x|R V (x) = +.

(59)

y tal que

Bajo estas condiciones existe una base ortonormal de autofunciones de

Proposicin 9.1. Supongamosque V


V (x)

12 + V .

satisface (58) y (59). Entonces el operador

L2 Rd con

Z

1
d
D (A) := u H R :

A := 21 x +

es autoadjunto en

V (x) |u (x)| dx < .

Rd
Adems, existe una base ortonormal

(n )nN

de

L2 Rd

formada por autofunciones de

A:

1
x n + V n = n n .
2
Los autovalores correspondientes son reales, mayores que

CV ,

y verican

cuando

n .

Demostracin. La demostracin es estndar. Comencemos observando que podemos, sin prCV  0  de lo contrario, basta aplicar el resultado
f L Rd ; claramente u D (A) es solucin de

dida de generalidad suponer que


en ese caso a

V + CV .

Sea

1
u + V u + u = f
2
si y slo si,

Z
QA (u, ) :=
ZR


1
x u (x) x (x) + u (x) (x) + V (x) u (x) (x) dx =
2

f (x) (x) dx =: Lf ()
Rd
50

obtenido

para toda

D (A). QA (, )

no es ms que el producto escalar cannico en

convierte a dicho espacio en un espacio de Hilbert); mientras que


continua de

d
2

f L

D (A)

en

R.

Lf

D (A)

(que

dene una aplicacin

Podemos pues aplicar el teorema de Riesz y asegurar que, dada

existe un nico

u D (A)

que verica

QA (u, ) = Lf ()

para toda

D (A).

Tenemos pues que:



(A + 1)1 : L2 Rd D (A) , L2 Rd
est bien denida y es continua. Probaremos ms adelante que la inyeccin de
1
2
es compacta, de lo que se sigue que (A + 1)
es un operador compacto de L


D (A) en L2 Rd

Rd en si mismo.

Teniendo en cuenta que tambin es autoadjunto, concluimos  vase, por ejemplo, [Davies] o

2
cualquier otro libro de anlisis funcional  que existe una base ortonormal de L
Rd formada

(n )nN

por funciones

que satisfacen:

(A + 1)1 n = n n ,
siendo

n R

lmn n = 0.

Es inmediato comprobar que


An =


1
1 n .
n

n := 1n 1 son autovalores de A. Para concluir que su lmite es + basta


si esuna autofuncin de A de norma uno y con autovalor entonces se tiene:
Z
1
|x |2 + V (x) | (x)|2 dx = .
CV
2
d
R

con lo
que,

observar

Habremos completado la demostracin del resultado una vez que hayamos probado la compaci
2
Rd .
dad de la inyeccin de D (A) en L

Lema 9.2.

(un )

Si

es una sucesin acotada en



2
converge fuertemente en L
Rd .

Demostracin. Sea Cc Rd
para

tal que

uN
n (x) :=


entonces existe una subsucesin que

supp B (0; 2), |B(0;1) 1 y 0 1. Escribamos,

N N:

x
N

un (x) .

H01 (B (0; 2)). Podemos por tanto aplicar el teorema



2
de Rellich (vase [LiebLoss]) y concluir la existencia de una subsucesin convergente en L
Rd .

Fijado

N , la sucesin uN
n

D (A)

est acotada en

De hecho, aplicando el argumento diagonal de Cantor, podemos garantizar la existencia de una




N
2
subsucesin un0 que converja fuerte en L
Rd para todo N N. Ahora bien, dado N > 0
R
se tiene, utilizando que
V (x) |un (x)|2 dx < C para todo n N:
Rd

Z
Rd


2
un0 (x) uN

n0 (x) dx

Z
ZR

 x 2
N

|un (x)|2 dx

|un0 (x)|2 dx
|x|>N
Z
1

V (x) |un0 (x)|2 dx


essinf |x|>N V (x) Rd

CN ,
lmN CN = 0.De aqu
2
Cauchy en L
Rd . F

siendo
es de

es fcil  utilizando el argumento de

51

/3

 concluir que

(un0 )

9.2. Aplicacin de Feynman-Kac al estudio del comportamiento asinttico de los autovalores


La solucin de la ecuacin del calor con potencial:

t u (x, t) 12 u (x, t) + V (x) u (t, x) = 0,

(x, t) Rd [0, ) ,

u (x, 0) = (x) ,

(60)

puede expresarse tambin como una integral en el espacio de los caminos:

u (x, t) :=

Rt

V (x+( ))d

(x + (t)) dP.

De hecho, la frmula anterior es vlida si

satisface las hiptesis (58) y (59). Para ms informa-

cin sobre las hiptesis que hay que requerir a

puede consultarse [Simon]. Aplicaremos dicha

frmula a la obtencin de resultados nos sobre el comportamiento asinttico de los autovalores


del operador

A.

Ante todo, escribamos:

1 2
|p| + V (x) .
2

H (x, p) :=

En el enunciado del siguiente resultado requeriremos que nuestro potencial satisfaga tres hiptesis adicionales:



V C Rd ; R ,
etV L1 Rd ,
t [0, ) ,
R
etV (x) dx
RRd
= 1,
siendo V (x) := m
ax V (y) ,
lm+ lm inf
tV (x) dx
yB(x;)
0
t0+
e
d
R


vol (x, p) Rd Rd : H (x, p)
lm
= C,
0.

(2)d

(61)

(62)

(63)

La condicin (62) es meramente tcnica; simplica enormemene la prueba. La condicin (63)

cuantica la tasa de crecimiento de

Teorema 9.3.
mos por

N ()

satisface las condiciones (58), (59), (61), (62), (63). Denote-

al nmero de autovalores de

N ()
cuando

Supongamos que

en el innito. Se satisface para una gran clase de funciones.

1
d

(2)

vol

menores que

Entonces:

(x, p) Rd Rd : H (x, p)

La demostracin del teorema se har en varios pasos. Sea

Q (x, y, t) :=

etn n (x) n (y) ;

nN
entonces para toda

L2 R


d

la funcin:

Z
u (x, t) :=

Q (x, y, t) (y) dy
Rd

es la nica solucin de (60). La expresin

Z
Q (x, x, t) dx =
Rd

X
nN

52

etn

es la

traza

c a la medida:
X
c () :=
n ()

del ncleo del calor. Si denotamos por

nN
entonces tenemos que:

tn

et dc ()

=
0

nN
y

N () := c ([0, )) .

(64)

Nuestro objetivo ser probar el siguiente resultado:

Proposicin 9.4.

t 0+ , se tiene:
Z
X
tn
e
=
et dc ()
Cuando

nN

1
d

(2)

etH(x,p) dxdp.

(65)

Rd Rd

Esta ltima integral se puede escribir como:

1
d

(2)
siendo, para

IR

tH(x,p)

dxdp =

Rd Rd

1
d

(2)

etE dH (E)

medible:

H (I) := vol

(x, p) Rd Rd : H (x, p) I

Obsrvese que por hiptesis tenemos que

lm

H ((, E])
(2)d E

= C.

(66)

Los siguientes resultados permiten relacionar (66) con el comportamiento asinttico de (64)
para

a travs de la propiedad (65).

Teorema 9.5
ciertos

(Teorema Abeliano)

Sea

una medida de Borel en

[0, )

que satisface, para

, C 0,
lm E ((, E]) = C.

E
Entonces,

lm+ t

t0

etE d (E) = C ( + 1) .

De ese resultado se deduce inmediatamente que,

lm

t0+

Z
d

(2)

etH(x,p) dxdp = C ( + 1) .

(67)

Rd Rd

Ahora bien, el siguiente cuasi recproco es cierto:

Teorema
9.6
R
t
e d ()
0

(Teorema Tauberiano)

<

para todo

t>0

lm+ t

t0

Sea

una medida de Borel en

y, para ciertos

, D 0,

etE d (E) = D.

Entonces,

lm ((, ]) =

53

D
.
( + 1)

[0, )

que satisface

As, si se cumple (65) tenemos por (67):

lm+ t

t0

et dc () = C ( + 1) ,

y el teorema Tauberiano permite concluir que:

lm c ((, ]) = C,

o en otras palabras, para

N ()

vol

(x, p) Rd Rd : H (x, p)


.

(2)d

El resto de esta seccin estar dedicado a demostrar la Proposicin 9.4.

9.2.1. Aplicacin de la frmula de Feynman-Kac


Denamos

f (x) :=
de modo que

R
Rd

f (x) dx = 1.

x
d
1
B(0;1)
d

Claramente,

Q (x, y, t) f (y x) dy Q (x, x, t) =
Rd

etn |n (x)|2 ,

cuando

0+ .

nN

Sea

Ct := { : | (t)| < } ;
utilizando la frmula de Feynman-Kac obtenemos:

Z
Q (x, x, t) = lm+
0

= lm+
0

Q (x, y, t) f (y x) dy
d
ZR

Rt
0

V (x+( ))d

f ( (t)) dP.

Ahora bien,

Rt
0

V (x+( ))d

d
f ( (t)) dP = d

Rt
0

V (x+( ))d

dP

Rt

Ct

1
=
d/2 P (C t )
(2t)

V (x+( ))d

Ct

donde hemos escrito:

 d
d
K := d (2t)d/2 P Ct = d

claramente,

K 1,

cuando

0+ .
54

Z
|x|<

e|x|

/2t

dx;

dP,

9.2.2. El puente Browniano


Vamos a examinar con detalle el lmite:

1
lm+
0 P (Ct )
para

[0, t]

: Rd R



( ( )) dP = lm+ E (W ) |Ct ,
0

Ct

medible. Formalmente, esperamos tener

1
lm+
0 P (Ct )

Z
( ( )) dP = E [ (W ) |Wt = 0] ;
Ct

y de hecho obtenemos:

1
P (Ct )
=

Z
( ( )) dP
Ct
d/2

D1
d/2

(2 (t ))

Z
Rd

t|y|2

(y) 1B(0;1) (x) e 2 (t ) e

|x|2 2xy
2(t )

dxdy,

Rd

con

|x|2
2t

D =

dx.

|x|<1
A la vista de esto, se tiene:

1
lm+
0 P (Ct )

td/2

Z
( ( )) dP =
Ct

(2 (t ))d/2

Claramente, el mismo razonamiento da, para

1
lm+
0 P (Ct )
=

t|y|2

(y) e 2 (t ) dy.

Rd

0 1 ... n t:

Z
( (1 ) , ..., (n )) dP
Ct

td/2

(t n )d/2

|xn |2

(x1 , ..., xn ) e 2(tn ) 1 ,...,n (x1 , ..., xn ) dx1 ...dxn .

Rnd

Esta ltima expresin es precisamente la distribucin conjunta en

W0,t := W Wt ,
t
conocido como

puente Browniano.

Denotemos por

1 ...n

del proceso:

[0, t] ,
P0,t

a su distribucin. Sirvindonos del ar-

gumento basado en el teorema de Riesz-Markov que utilizamos para construir la medida de


[0,)
Wiener, podemos demostrar que, para toda funcin medible y acotada : R
R se tiene:

1
lm+
0 P (Ct )

Z
() dP =

Ct

En particular,

Q (x, x, t) =

() dP0,t .

1
d/2

(2t)

55

Rt
0

V (x+( ))d

dP0,t .

9.2.3. Estimaciones de tr et(/2V )

Comencemos estimando superiormente utilizando la desigualdad de Jensen:

tn

nN

=
=

1
(2t)d/2

Rd

1
d/2

(2t)
1

Rd

(2t)d/2 Rd
Z
1
(2t)

Rt

V (x+( ))d

dP0,t dx

d/2

1
t

etV (x+( )) d dP0,t dx

1
td/2
t (2 (t ))d/2

t|y|2

etV (x+y) e 2 (t ) dyd dx

Rd

etV (x) dx.

Rd

Por otra parte, si escribimos:

t := { : | ( )|

(0, t)

para

(0) = (t) = 0} ,

V (x) := max V (y) ,


yB(x;)
tenemos, para todo

> 0,
X
etn
nN

1
d/2

(2t)
1

d/2

(2t)
Z
P0,t (t )
d/2

(2t)

Rt
0

V (x+( ))d

dP0,t dx

Rd

etV (x) dP0,t dx

Rd

etV (x) dx.

Rd

Ahora bien, razonando como en las demostraciones de los lemas 7.9 y 7.10 obtenemos:

Ahora bien,

0,t

1 sup

td/2

t|y|2

e 2 (t ) dy

(2 (t ))d/2 |y|>
Z
|y|2
dy
= 1 sup
e 2
0 t |y|> t
(2)d/2
(t )
Z
|y|2
dy
=1
e 2
(2)d/2
|y|> 4
t
Z
|y|2
dy
=
e 2
.
(2)d/2
|y| 4
t
0 t

lmt0+ P0,t (t ) = 1

y, por hiptesis tambin tenemos:

R
etV (x) dx
RRd
lm+ lm inf
= 1.
0
t0+
etV (x) dx
Rd
Por tanto,

P
(2t)d/2 nN etn
R
1 lm inf
t0+
etV (x) dx
Rd
P
(2t)d/2 nN etn
R
lm sup
1
etV (x) dx
t0+
Rd
con lo que el resultado queda probado.

56

Apndice
A. La ecuacin del calor: solucin analtica.
Para hallar una expresin para la funcin de densidad lmite debemos resolver la ecuacin
del calor en una dimensin espacial. Repasemos brevemente la existencia de soluciones de esta
ecuacin por medio de la transformada de Fourier. Denimos

f(s) :=

eisx f (x) dx

(68)

y asumimos la validez de la frmula de inversin

1
f (x) =
2

eisx f(s) ds.

(69)

Podemos ver fcilmente que:

fc00 (s) =

eisx f 00 (x) dx

= s

eisx f (x) dx

= s f(s) .
2

Si transformamos la ecuacin (13) con respecto a la variable

a ambos lados obtenemos:

u
(s, t) = Ds2 u(s, t) ,
t
tomamos a

como un parmetro de la ecuacin e integramos respecto de

t:


u
2
Ds2 t

log
.
ub0 = Ds t u(s, t) = ub0 (s)e
Podemos recuperar la funcin

formalmente a travs de la frmula de inversin (69):

1
u(x, t) =
2

eisxDs t ub0 (s) ds.

u0 segn (68) obtenemos:


Z +

Z +
1
isxDs2 t
isq
u(x, t) =
e
e
u0 (q) dq ds.
2

Escribiendo la transformada de

E intercambiando el orden de las integrales:

Z +

Z +
1
is(xq)Ds2 t
u(x, t) =
u0 (q)
e
ds dq
2

Z + 

Z +

(xq) 2
(xq)2
1
is Dt+
4Dt
2 Dt
=
e
u0 (q)
e
ds dq
2

!
Z +
Z i xq

(xq)2
2 Dt
1
dp
2
=
ep
dq
e 4Dt u0 (q)
xq
2
Dt
i
2 Dt
Z +
(xq)2
1
=
e 4Dt u0 (q) dq .
2 Dt
57

(70)

Cuando

u0

es la funcin delta de Dirac centrada en el origen obtenemos la solucin fundamental


x2
1
e 4Dt ,
u(x, t) =
2 Dt

(71)

idntica a la expresin obtenida para la densidad de probabilidad (7). De esta manera recuperamos a la misma funcin a travs de la solucin de una ecuacin en derivadas parciales. En
(70) podemos ver que la solucin para una condicin inicial arbitraria se obtiene a partir de
la solucin fundamental a travs de la convolucin, esto es equivalente a distribuir en forma
continua innidad de fuentes a lo largo de la recta.

Referencias
[1] Alexandre Chorin, Ole Hald:

Stochastic Tools in Mathematics and Science. Surveys

and Tutorials in the Applied Mathematical Sciences 1,

[2] Leo Breiman:

Springer 2006.

Probability, Addison-Wesley Series in Statistics, 1968.

[3] S. Chandrasekar:

Stochastic Problems in Physics and Astronomy,

en Reviews of

Modern Physics, Vol 15, N. 1, 1943.


[4] D.R. Cox & H.D. Miller:
[5] J.L. Doob:

The theory of stochastic processes.

Stochastic Processes, John Wiley and Sons 1953.

[6] C.C. Lin, L.A. Segel:

Mathematics applied to deterministic problems in the Natural

Sciences. Classics in Applied Mathematics 1, SIAM.

[7] C.W. Gardiner,

Handbook of Stochastic Methods for Physiscs, Chemistry and the

Natural Sciences. Springer-Verlag.

Application of Brownian motion to the equation of KolmogorovPetrovskii-Piskunov. Comunications on pure and applied mathematics, Vol. XXVI-

[8] H.P. McKean:

II, 323-331 (1975).


[Cameron] Cameron, R. H. A family of integrals serving to connect the Wiener and Feynman
integrals.
[Davies]

J. Math. and Phys. 39 (1960/1961) 126140.

Davies, E. B.

Spectral theory and dierential operators. Cambridge Studies in Ad42. Cambridge University Press, Cambridge, 1995.

vanced Mathematics,
[Dugundji] Dugundji, J.

Topology. Allyn and Bacon, Inc., Boston, Mass. 1966.

[Evans]

An introduction to Stochastic Dierential Equations. Disponible en la

Evans, L. C.
URL:

[LiebLoss]

http://math.berkeley.edu/~evans/.

Lieb, E. H.; Loss, M.

Analysis. Second edition. Graduate Studies in Mathematics,

14. American Mathematical Society, Providence, RI, 2001.

[Nelson64] Nelson, E. Feynman integrals and the Schrdinger equation.

5 (1964) 332343.

[Nelson67] Nelson, E.

Dynamical theories of Brownian motion.

Princeton, N.J. 1967. Disponible en la URL:

~nelson/books.html.
58

J. Mathematical Phys.

Princeton University Press,

http://www.math.princeton.edu/

[Rudin]

Rudin, W.

Real and complex analysis. Third edition. McGraw-Hill Book Co., New

York, 1987.
[Simon]

Simon, B.
matics,

Functional integration and quantum physics.

Pure and Applied Mathe-

86. Academic Press, Inc., New York-London, 1979.

Partial dierential equations. II. Qualitative studies of linear equations. Applied Mathematical Sciences, 116. Springer-Verlag, New York, 1996.

[TayPDEII] Taylor, M. E.

59

Anda mungkin juga menyukai