Anda di halaman 1dari 84

..............................................

;.
lecciones populares
.;
:.
de matemticas
:.
: ~--------- :

.~
~

MTODO
DE
MONTECARLO

l. M.Sbol

..............................................

.:

---~~:...__

________

. ~--------~

....
... .........................................
Mosc

nonYJHl~HblE JIEKU,11H n MATEM.ATHl:U:

11. M. CEOJlb

MET0,11, MOHTERAPJIO

HCl,IJ,ATEnbCTBO HAYHA
MOCHBA

LECCIONES POPULARES DE 1\1/\TEMATICAS

I. M. SOBOL

Mi!:TODO
DE MONTECARLO
TRADUCIDO DEJ;, RUSO POR CARLOS VEGA
candidato a Doctor en Ciencias fsico-mtemati cas,
Catodrtico de Matemticas Superiores

Segunda edicin

EDITORIAL .MIFl

MOSCO

Primera edici n 1976


Segun da edicin 1983

IMPRESO EN LA URSS.

Ha nenaucxoM RaYKl'

@ Traduccin al espaol. Editorial Mir. 1971i

Indice
Prefacio 7
Introduccin 9
1. Generalidades del mtodo

Captulo 1. Simulacin
de variables aleatorias 15
2. Variables aleatorias 15
3. Obtencin
de variables aleatorias en las MCE 26
4. Transformaciones
de vari.ahles aleatorias 32
Captulo 2. Ejemplos
de aplicacin del mtodo
de Montecarlo 42
5. Anlisis
rle un sistema de servicios 42
6. Anlisis de la calidad
y rle la Reguridad de piezas 48
7. Anlisis del paso
el.e neutrones a tra v.~
de una placa 55
8. Clculo de la integral definida 63
Apndice 88
9. Demostracin
de algunas proposiciones 68
10. Sobre Jos nmeros seudoaleatorios 75
Tablas 78
Literatura 79

Prefacio
Hace unos aos, la Universidad Social me invit a dic.t ar
dos conferencias sobre el mtodo de Montecarlo para los
oyentes de la Facultad de Tcnica de clculo. Yo acept.
Poco antes de la primera con~erencia me enter con espanto
de q11e los oyentes, en su mayor parte, ignoraban la Teora
de las probabilidades. No habfo modo de retroceder . Sobre
la marcha hubo que incluir en la conferencia un apartado
adicional con el fin de exponer a los oyentes las noiones
principales de la Teora de las probabilidades.
El contenido de estaR conferencias, dictadas a lo largo
de varios aos, con el tiempo iba estabilizndose. En la
edicin presente se ha conservado tambin el apartado adi
cional ( 2) al que quiero dedicar unas palabras.
Cualquier persona habr empleado alguna vez las pala~
bras probabilidad y variable aleatoria. La idea intuitiva
de la probabilidad (en tanto que frecuencia) corresponde
ms o menos al contenido verdadero de este concepto. En
cambio, la idea intuitiva de la variable aleatoria est muy
lejos, como regla, de lo. definicin matemtica. Por eso, en
el 2 damos por conocido el concepto de probabilidad y
explicamos slo el concepto ms complejo de variable aleatoria. Este pargrafo no puede reemplazar el curso de la
Teora de las probabilidades: la exposicin es simplificada
y no trae demostraciones. Sin embargo, permite hacerse
una idea sobre las variables aleatorias suficiente para
comprender los aspectos elementales del mtodo de Montecarlo.
El objetivo principal de este libro es sugerir a los especialistas de las ms diversas ramas la iden de que en el
campo de sus actividades existen problemas que se pueden
resolver por el mtodo de Montecarlo.
Los problemas que se analizan en las conferencias son
variados y suficientemente simples. Sin embargo, no pueden
abarcar, claro est, todas las esferas de aplicaci6n deJ m-

8
todo. Me limitar a dar un ejemplo. En el libr no se habla
para nada de Ja medicina. No obstante, los mtodos de1 7
permiten evaluar las dosis en la radioterapa. Teniendo un
programa de clculo ele los rayos absorbidos por distintos
tejidos del cuerpo, se puede dosificar y orientar la radiacin
del modo ms efciente cuidando efe no dafiar los tejidos
sanos.
Este libro abarca todo cuanto se trat en las conferencias; contiene una exposicin ms detallada de los ejemplos;
adems, so han agregado los pargrafos 9 y 10.
l. Sbol

INTRODUCCJON
1.
GENERAL1DADES

DEL MtTODO

El mtodo de Montecarlo es un mtodo nnmenco que


permite resolver problemas matemticos mediante la simulacin de variables aleatorias.
1.1. Orgenes del mtodo de Montecarlo. Se considera
como fecha de nacimiento del mtodo do Montecarlo el ao
194.9 en el que apareci el articulo titulado The Monte Cario
method1). La creacin de este mtodo suele ligarse a los
nombres de los matemticos nol'teamericanos J. von Neumann y S. Ulam. En la Unin Sovitica los primeros artculos dedicados al mtodo de Montercarlo aparecieron en
1955 y 1956 ).
Es curioso que la base terica del mtodo era bien conocida desde hace mucho tiempo. Es ms, algunos problemas do
la Estadstica se resolvan a veces empleando las muestras
aleatorias, o sea, aplicando de hecho el mtodo de Montecarlo.
Sin embargo, hasta la aparicin de las mquinas calculadoras
electrnicas (MCE), este mtodo no encontraba aplicaciones
suficientemente amplias ya que la simulacin a mano de
variables aleatorias constituye un proceso mny laborioso.
Es decir, la aparicin del mtodo de Montecarlo en tanto
que un mtodo numrico de gran universalidad so hizo posible slo gracias a la creacin de las MCE.
El nombre de Montecar101> se debe al de una poblacin
del principado de Mnaco, celebre por su casa de juego.
Resulta que uno de los aparatos mecnicos ms sencillos
que permite obtener variables aleatorias es ... la ruleta.
Acerca de esto hablaremos en el 3. En cambio, conviene,
por lo visto, responder aqu a una pregunta frecuente:
Ayuda o no el mtodo de Montecarlo a ganar en el juego
de la ruleta?J> No, no ayuda . E incluso no tiene narla que
ver con este juego.
1.2. Ejemplo. Para que el lector se haga una idea ms
clara de las cuestiones que vamos a tratar, consideremos
un ejemplo muy sencillo. Supongamos q.u e debemos calcular
1) Metropoli& N., Ulam S., The Monte Cario method, J. Amer. statistical assoc. , 1949, 44, M 24i, 335-341.
~) Se trata de los articulos de V. V. Cbavcbanidzc, Yu. A. Shri
der y V. S. Vladmirov.

2-1216

10
el rea de una figura plana S. :Bsta puede ser una figura
arbtraria con un a frontera curvilnea, definida grfica o
analticamente y compuesta de uno o va rios pedazos. Supongamos que se trata de la figura representada en la fig . 1
y

"
\l'lg. 1

y supongamos que toda la figura est comprendida dentro


de un cuadrado de dimensin f.
Tomemos en el cuadrado un nmero N de puntos aleatorios. Sea N' el n mero de puntos que aparecen dentro de S.
Es obvio, por razones geomtricas, que el rea de S es igual
aproximad amente a la razn N' IN. Cuanto mayor sea N
tanto mayor ser la exactitud de esta estimacin.
En el ejemplo representado en la fig. 1 se ha escogido un
total de N = 40 puntos. De stos, N' = 12 puntos aparecen
dentro de S . Tenemos N'IN = 12/40 = 0,30 mientras que el
valor exacto del rea de S es 0,35 1).
1
) En la prctica l'l mtodo de Monl ecarl.o no se
Aplica al clculo do roa de figuras planas ya que existen para ello
otros mtodos que, a pesar de ser ms complejos, garantiz11n una
exactitud mucho mayor. (Siguo on la pg. 11).

11

1.3. Dos peculiaridades del mtodo de Montecarlo.


La primera consiste en que su algoritmo tiene una estructura muy sencilla. Como regla, se elabora primero un programa para la realizacin de una prueba aleatoria (en el
ejemplo del punto t.2 hay que escoger un punto aleatorio
en el cuadrado y comprobar si pertenece o no a S). Despus,
esta prueba se repite N veces de modo que cada e-xperimento
sea independiente de los rest'a.ntes y se toma la media de
los resultados de todos los experimentos.
Por esto el mtodo de Montecarlo se denomina a veces
mtodn de pruebas estadisttcas.
La segunda peculiaridad consiste en que el error es, como
regla, proporcional a la magnitud VD/N, donde D es una
constante y N es el nmero de pruebas. Esta frmula permite ver que para disminuir el error en 10 veces (en otras
palabras, para obtener en el resultado otra cifra decimal
exacta) es preciso aumentar N (o sea, el volumen del trabajo)
en 100 veces.
Se pone de manifiesto la imposibilidad de alcanzar en este
camino una elevada exactitud. Por eso suele decirse que el
mtodo de Montecarlo resulta especialmente eficaz en la
solucin de problemas en les cuales se necesita conocer el
resultado con poca exactitud (del 5 al 10 por ciento).
Sin embargo, un mismo problema puede ser resuelto
aplicando distintas variantes del mtodo de Montecarlo 1)
a las que corresponden diferentes valores de D. En numero~
sos problemas se logra elevar considerablemente la exactitud escogiendo un procedimiento de clculo al que le corresponde un valor mucho menor de D.
1.4. Problemas que permite resolver el mtodo de Montecarlo. En primer lugar, el mtodo de Montecarlo permite
simular cualquier proceso cuya marcha depende de factores
Sin embargo. el mtodo de Montecarlo expuesto on nuestro ej~m
plo permite con la misma facilidad calcular el volumen multidimensionab de un cuerpo en un espacio multid imensional. Es m6.s, sucedo
a menu.do que el mtodo de Montecarlo es en este caso el nico mtodo
numrico que permite resolver ol problema..
l) En la literatura especial con frecuencia se suelo hablar ahora de los mtodos de Montecarlo (en plurnl) para subrayar con
ello que un mismo problema se puede resolver mediante la 11imulacin
de distintas variables aleatorias.
2

12

aleatorios. En segundo lugar, en muchos problemas matemticos, que no tienen la menor relacin con cuestiones aleatorias, se puede inventar un modelo probabiHstico artificial
(e incluso ms de un modelo) que permite resolver estos
problemas. En realidad, esto es lo que hemos hecho en el
ejemplo del punto 1.2.
Por consiguiente, se puede hablar del mtodo de Mon
tecarlo como de un mtodo universal en la solucin de problemas matemticos.
Es de especial inters el hecho de que en algunos casos
conviene abandonar la simulacin del proceso aleatorio real
y

..
..
X

Flg. i

y concentrarse en el anlisis del modelo artificial. Una situacin de esto tipo es considerada en el 7.
1.5. Algo ms sobre el ejemplo. Volvamos al ejemplo del
punto 1.2. Para poder realizar el clculo debemos escoger en
el cuadrado puntos aleatorios. Cmo realizar esto?
Imaginemos el siguiente experimento. La fg. 1 (aumentada proporcionalmente), con la figura S y el cuadrado, se

'13

coloca sobre un muro y sirve de blanco para un tirador que,


situado a oierta distancia, dispara N veces apuntando al
centro del cuadrado. Claro est que no todas las balas darn
exactamente en el centro: perforarn el blanco en N puntos
aleatorios 1 ). Es posible estimar el rea de S a partir de
estos puntos?
En la f.ig. 2 viene representado el resultado de un experimento semejante. En este experimento se tiene N = 40,
N' = 24 y N'IN = 0,80 lo que representa casi el doble del
valor exacto (0,35) del rea. Por supuesto , tratndose de un
tirador de gran puntera los resultados del experimento sern
muy malos ya que casi todas las balas pegarn cerca del
centro y perforarn sz ).
Es fcil persuadirse de que el mtodo que hemos aplicado
para calcular el rea tendr validez slo si los puntos aleatorios, adems de ser aleatorios, estarn distribuidos uniformemente,. sobre el cuadrado. Para dar un sentido exacto
a estas palabras es preciso estudiar l a definicin de variable
aleatoria y algunas de sus propiedades. Estos conocimientos
se exponen, sin demostracin, en e] 2. El lector que haya
ledo cualquier curso de la Teoria de las probabilidades puede
omitir por completo el 2 a excepcin del punto 2.5.
1
) Aceptamos que el tirador est lejos de ser el
campen del mundo y se encuentra a una distancia sticientemente
grande del blanco.
2) En el punto 4.5 explicaremos croo han sido escogidos los
puntos aleatorios en las figs. i y 2.

CAPTULO 1
SIMULACIN
DE VARIABLES ALEATORIAS

2.

VARIABLES ALEATORIAS

Suponemos que el lector est ms o menos familiarizado


con el concepto de probabtlidad y pasamos directamente al
concepto de variable aleatoria.
Las palabras variable aleatoria suelen emplearse para
subrayar que se ignora el valor concreto que tomar esta
variable. Sucede tambin que estas palabras encierran incluso un desconocimiento de cul es esta variable.
En cambio, el matemtico emplea estas mismas palabras .variable aleatoria dndoles un contenido positivo
bien determinado. Efectivamente, dice l, no conocemos
el valor que tomar esta variable en un caso concreto dado
pero sabemos qu valores puede tomar y tambin las probabilidades de unos u ot ros valores. A base de estos datos no
podemos predecir con exactitud el resultado de una prueba
relacionada con esta variable aleatoria pero s podemos
prever con gran seguridad los resultados de un gran nmero
de pruebas. Cuanto mayor Rea el nmero de pruebas, mayor
exactitud tendrn nuestras predicciones.
Es decir, para definir una variable aleatoria es preciso
sealar los valores que puede tomar y las probabilidades
de estos valores.
2.1. Variables aleatorias discretas. Se dice que la variable
aleatoria es discreta si puede tomar un conjunto discreto
de valores x 1 , x 2 , , Xn 1 ).
Una variable Aleatoria discreta ~ se define mediante la
tabla

- (X Xz ...

6donde x1 , x,, .. . ,
~

Xn

Xn

Pl P2 Pn

. '

(T)

son los valores posibles de la variable

y p 1 , pz, . . . , Pn son las probabilidades que les corres-

ponden. Hablando con ms precisin, la probab ilidad de


1 ) La Teora de las probobilidadf.!s cstud11 tambin
variables aleatorias discretas que pueden tomar nn nmero infinito
de valores.

16
que la variable aleatoria
esta probabilidad por P

tome el valor x, (designaremos


= xt}) es igual a p 1 :

P (S = xr} =Pi
La tabla (T) se denomina distribucin de la variable aleatoria.
Hablando en trminos generales, los nmeros x 1 , xi, ...
, Xn pueden ser cualesquiera. En cambio, las probabilidades p 1 , p 9 , , Pn deben cumplir dos condiciones:
a) todos los nmeros p 1 deben ser positivos:

p 1 >O;

(1)

b) la suma de to dos los p, debe ser igual a 1 :

+ + +

P1
Pi
Pn = 1.
(2)
La ltima condicin significa que ~ debe necesariamente
tomar en cada caso uno de los valores x 1 , x 3 , , Xn
Se denomina esperanza matemtica de la variable aleatoria
el nmero.

(3)

Para aclarar el significado real de esta magnitud, la


representaremos en la forma

Ms

De aqu puede verse que


es el vaU>r medio de la variable ; con la particularidad de que los valores x 1 de mayor
probabilidad figuran en la suma con pesos mayores 1 ) .
1) La media ponderada aparece con frecuencia en
las ms diversas ra1nas de la ciencia. Por ejemplo, en la Mecnica:
si en los puntos .z1 , z:, ... , xn (del eje Oz) estn concentradas las ma
sas mi. m 1 , , mn, la absoisa del cent.ro de gravedad de este sistema
se determina macliante la frmula

i-t

i -t

z= ~ x,m ,/~ m,.


Por supuesto, la suma de todas las masas puede ser en este caso distinta
de la unidad.

17

Sealemos las propiedades principales de la esperanza


matemtica: si e es una variable no aleatoria, se tiene
M (s

+ e)

= Ms

M (es) =

si

+ e,

(4)

cM~;

(5)

s y r son dos variables aleatorias cualesquiera, se tiene


+

M (s
ri} = Ms + Mri.
Se denomina varianza de la variable aleatoria
mero

(6)

s el n-

(7)
Os = M l(s - Ms) 1].
Por consiguiente, la varianza Os es la esperanza matemti-

ca del cuadrado de la desviacfn de la variable aleatoria


de su valor med io Ms. Es obvio que siempre se tiene Os > O.
La esperanza matemtica y la varianz~ son las cara~ters
ticas numricas ms importantes de la variable aleatoria ~.
Qu~ valor prctico tienen?
Supongamos que hemos observado varias veces la variable
obteniendo los valores Si,
SN (cada uno
de los cuales es igual a uno de los nmeros x 1 , x 11 , . , Xn) ;
entonces la media aritmtica de estos valores ser prxima
a

su ... ,

Ms

(8)
y la varianza

Os

D ~ = M 1 ~z

2M~s

caracterizar el esparcimiento de estos


valores alrededor del valor medio M~.
Empleando (4), (5) y (6) podemos dar otra forma a (7):

+ Ms) 2 1 =

M (s 2 )

- 2 M~ M;
de donde

+ MsY'.
(9)

Resu1ta ms fcil, como regla, calc\llar la varianza aplicando Ja frmula (9) en ,lugar de la frm u.la (7).
Sealemos las propiedades principales de la varianza:
si e es una va.ria ble no aleatoria, se tiene
(10)
O (s + e}= Os,
2
(11)
D (et) = c Ds.

18
En la Teora de la~ probabilidades desempea un papel
importante el concepto de independencia de variables aleatorias. En realidad se trata de un c<;>ncepto bastante complejo; pero en los casos ms sencillos l a cuestin se aclara
fcilmente 1 ).
Para dos variables aleatorias i ndependientes ~ y ri son
vlidas las relaciones
(f 2)
M (~r) = Ms Mri,
(13)
D (s + r) = D~
071.

Ejemplo. Consideremos la variable aleatoria


cin siguiente
t

con la distribu-

6 )

= ( f/6 1./6 1/6 1./6 1/6 1/6

Es ouvio que podemos realizar esta variable considerando ~1 n mero de


puntos que aparece al arrojar un dado: todos los valores son igualmente probables. Calculemos la esperanza matemtica y la varianza
de :x. Segn la f6rmula (3), tenemos
i
t

Mx=1G+ .. . +66=3,5

Segn la f6rmula (9), tenemos


Dx=M (x2) -(Mx)2 =12.

+ .. .+ 52. 61 -

(3,5)2=2,917.

Ejemplo. Consideremos la variable aleatoria 6 con la distribucin


sigui0Jlte
Podemos realizar esta variable considerando el juego de cara y cruz en
el quo a la. cara lo cc.rresponden 3 puntos y a la cruz 4 puntos. En este
caso. tenemos
M0 = 0,5 .3
0,5 .4 = 3,5;
= 0, 5 (32 + 42) - (3,5):1 = 0,25.
Como vemos M0 = Mx mientras que 00
D><. Lo ltimo era de
esperar ya que los valores de 9 pueden derir de 3,5 en 0,5 todo lo
ms mientras que la dispersin de los valores de " puedo alcanzar
hasta 2,5.

<

2.2. Variables aleatorias continuas. Supongamos que


en el origen de coordenadas del plano se encuentra una can1 ) Supongamos que adems de la variable~ estamos
observando otra variable aleatoria 11 Si la distribucin de la variable t
no se altera al conocerse el valor que ha tomado la variable ri, es
lgico decir que ~ no depende de 11.

1.9
tidad determinada de radio. Todo tomo de radio emite
al desintegrarse nna partcula a. Su direccin puede ser
caracterizada mediante el ngulo '!> (fig. 3). Tanto desde
y

JI

Flg,

ol punto de vista terico como prctico, la emisin es po


sible en cualquier direccin; por eso, esta variable aleatoria puede tomar cualqui er valor comprendido entre O
y 2n.

Diremos que una variable aleatoria ses continua si puede


tomar cualquier valor comprendido en un intervalo (a, b).
Toda variable aleatoria continua
queda definida si
se da el intervalo (a, b) que contiene los valores posibles
de esta variable y la funcin p (x) que lleva el nombre de
densidad de probabilidad de la variable aleatoria
(o densidad de distribuci6n de 5).
E l significado real de la funcin p (x) es el siguiente:
sea (a' , b') un intervalo cualquiera contenido en (a, b) (es
decir. sea a~ a' y b' ~ b); entonces la probabilidad de
que
tome un valor perteneciente al intervalo (a', b')
es igual a la integral

b'

P{a'<s<b'}- ) p(x)dx.
a

(14)

20

El rea sombreada en la fig. 4 es igual al valor de la irite-gral (14).


El conjunto de los valores de ~ puede formar un intervalo
cualquiera. Puede darse incluso el caso de que a = - oo
'f

o
Plg. 6

y tambin el de que b = oo. En cambio, la densidad p (x)


debe cumplir dos condiciones anlogas a las condiciones (1)
y (2) para las variables discretas:
a) la densidad p (x) debe ser positiva:
p (x)

>

O;

(15)

b) la integral de la densidad p (x) correspondiente a todo


el intervalo (a, b) debe ser igual a 1.:
b

Jp (x) dx= 1.

(16)

Se denomina esperanza matemtica de la variable aleatoria continua el nmero

M~=

Jxp(x)dz.

(17)

El significado de esta caracteristica es el mismo que en


el caso de una variable aleatoria discreta. Efectivamente,

21
puesto que

M~ =

I>

xp(x)

dxj) p {x) dx,


a

es fcil ver que se trata del valor medio de ~ pues cualquier


valor de ~ es un nmero x del intervalo (a, b) que aparece
en la integral con el peso p (x) 1 ).
Todo lo expuesto en el punto 2.1, desde la frmula (4)
hasta la f6rmula (1.3) inclusive, sigue siendo vlido tambin
para las variables aleatorias continuas; esto se refiere a la
definicin (7) de la varianza, a la frmula (9) que se emplea
para calcularla y a todas las propiedades de M~ y D ~. La
repiticin huelga.
Mencionemos nicamente otra frmula ms que permite
calcular la esperanza IQatemtica de una funcin de ~
Sea, como antes, p (x) la densidad de probabilidad de la
variable aleatoria ~. Tomemos una funcin co ntinua cualquiera f (x) y consideremos la variable aleatoria ri = t
Se puede demostrar que

rn>.

M/ (~) =

Jf

(x) p (x) dx .

(18)

Cl

Cabe subrayar que, hablando en trminos generales,

Mf (s) =l=f (M6).


Si la variable aleatoria y est definida en el intervalo
(O, 1) y su densidad es p (x) = 1 (fig. 5), se dice que est
uniformemente dtstribuida en (O, 1. ).
Efectivamente, cualquiera que sea el intervalo (a', b')
que se tome dentro de (O, 1), la probabilidad de que y tome
un valor perteneciente al intervalo (a', b') es igual a
b'

p (:e) d:c = b' - a',

1) Tambin en este caso podemos sealar una fr


mula aologa de la Mecnica: si p (z) es la densidad lineal de la barra
a~ :& ~ b, la abscisa del centro de gravedad de la b11rra se calcula
meoiant.e la frmula

l>

Cl

CI

i=) xp{x)x/ Jp(x)dz.

22
o sea, es igual a la longitud de este intervalo. En .particular,
s dividimos (O, 1) en u n nmero arb itrario de intervalos

p(x)

Flg. S

de igual longitud, la probabilidad de que i' tome un valor


perteneciente u cualquiera de estos intervalos ser la misma.
Es fcil calcu lar que
1

M-v= Jxp(x)dx= Jxdx=i-;


DI'-

Jr x2p(x)dx-(Mi)z= 31 - 41
o

12 .

La variable aleatoria y ser empleada frecuentemente


en lo sucesivo.
2.3. Variables aleatorias normales. Se da el nombre de
variable aleatoria normal (o gaussiana) a toda variable
aleatoria~ que est definida en todo el eje (- oo, oo) y que
tiene la densidad
p (x) =

1
2n a

(o:-a)

e -za-.

donde a y cr >O son unos parmetros numricos

(19)
1).

1
) fJ os un nmero y no una variable aleatoria. S in

embargo, em pleamos esta lotra griega ya por tradicin.

23
El parmetro a no influye en la forma de la curva p (x) :
su variacin slo conduce a un desplazamiento de la curva a
lo largo del eje x. En cambio, al variar CJ si se altera la forma
de la curva. En efecto, es fcil ver que
mx p (x) == p {a}=

cr

V.
2n

Si disminuimos <1, aumentar el mx p (x). Pero toda el


rea que encierra la curva p (x) es igual a 1 segn (16). Por
y

-3
Flg. G

eso, la curva tendr que estirarse hacia arriba en una vecindad de x = a y decrecer para t odos los valores suficiente
mente grandes de x. E n la fig. 6 hemos representado dos
densidades normales correspondientes al caso a =O y
CJ = 1 y al caso a = O y C1 = 0,5. (Otra densidad normal
ser construida en la fig. 21 de la pgina 54).
Se puede demostrar que
M~

a y Dt = cr 2

Las variables alentaras normales apnrccen con gran


frecuencia al analizar cuestiones de la ms diversa ndole.
La razn de esto ser explicada a continuacin. Por ejemplo,

24
el error de medicin 6 es, como regla, una variable aleatoria

normal. Si no existe error sistemtico en las mediciones, se


tiene a = M6 = O. La magnitud cr = V 0 6, llamada

error medio cuadrtico, caracteriza el error del mtodo que


se emplea para la medicin.
La regla de las tres sigmas.>. Es fcil calcular que
a+3o

p (x) dx = 0,997

o-3o

cualesquiera que sean a y

{a -

Cf

en (19). De (14) resulta que

3cr <~<a+ 3o}

= 0,997.

(20)

La probabilidad 0,997 es tan prxima a i que la ltima


frmula se interpreta a veces as: al efectuar una prueba es
prcticamente imposible obtener un valor de ~ que difiera de
M ~ en ms de 3cr.
2.4. Teorema central del lmite en la Teora de las probabilidades. La place fue el primero en enunciar este importante
teorema. Varios matemticos destacados, entre los cuales
figuran P. L. Chbishev, A. A. Mrkov y A. M. Liapunov,
estudiaron sus generalizaciones. Su demostracin es bastante
compleja.
COnsdetemos N variables - aleatorias ; 1 , tz, ... , SN
independientes idnticas de modo que las distribuciones de
probabilidad de estas variables coinciden. Por consiguiente, tambin coinciden sus esperanzas matemticas y varianzas.
Pongamos
M ~ 1 = M~ 2 = ..
o~.
D si = . . .

M~N = m,
o~N = b2

Designemos por p N la suma de todas estas variables:

+ + ... +

PN = ~l
~11
~N
De las f6rmulas (6) y (13) se deduce que

+ S2 + ... + ~N) = Nm,


o <si + s11 + ... + ~ > = N b'.

MpN = M rn1

Dp N

Consideremos ahora la variable aleatoria normal bN


con estos mismos parmetros: a = Nm y crs = Nb'.

25

El teorema central del lmite afirma que cualquiera que


sea el intervalo (a', b') se tiene para valores grandes de N
b'

P {a'< PN < b'}

~ JPtN (x) dx.


o'

El significado real de esto teorema es obvio: la suma p N


de una gran cantidad de variables aleatorias idnticas es
aproximadamente normal (PPN (~) ~ Prw (.x)).
En realidad, este teorema es vlido en situaciones mucho
ms generales: los sumando$. ~ 1 , ~ 2 , ~N pueden no ser
idnticos e indepen<\ientes; lo que importa es s6lo. que cada
sumando por sepat'ado no influya considerablemente en la
suma.
Es este teorema el que explica porque las variables aleatorias normales aparecen oon tanta frecuencia en la prctica.
En efecto, siempre que tropezamos con el efecto sumario de
una gran cantidad de factores aleatorios insignificantes, la
variable aleatoria resultante es normal.
Por ejemplo, la desviacin del proyectil respecto al objetivo es casi siempre una variable aleatoria normal por cuanto
depende de las condiciones meteorolgicas en las diferentes
partes de la trayectoria y de otros muchos factores.
2.5. Esquema general de aplicacin del mtodo de Monlecarlo. Supongamos que debemos calcular una magnitud m
que desconocemos. Tratemos de idear una variable aleatoria 6
tal que Ms = m. Sea adems 06 = b2
Consideremos N variables aleatorias independientes ~11
~ 2 , , ~ N con la misma distribucin que tiene S Si
N es suficientemente grande, la clistril>ucin de la suma
pN =
N ser, segn el teorema del
punto 2.4, una distribucin aproximadamente normal con
los parmetros a = Nm y a 2 = Nb'. De (20) se deduce que

s1 + s2+ . . . + s

P {Nm - 3bVN

<

PN

<

Nm

3bYN} ~ 0,997.

Si dividimos entre N la desgualdad que figura entre las


lla ves, obtendremos una desigualdad equivalente; la probabilidad continuar siendo la misma:

P { m--V~
3-1216

< "; <m+ ;N} ~0.997.

26
Podemos representar este ltimo resultado en la forma siguiente

{j !

;~ ~ 1 -ml< ;N} ~ o,997.

(21>

Esta es una relacin de suma i:tQ.portancia para el mtodo


de Montecarlo. Ofrece un mtodo para calcular m y a la vez
permite estimar el error.
En efecto, determinemos N valores de la variable aleatoria ~ 1). Segn la frmula (21), la media aritmtica de estos
valores ser igual aproximadamente a m. Con una elevada
probabilidad podemos afirmar que el error de esta aproximRcin no pasa de 3b/lf N. Es obvio que el error tiende a cero
cuando N crece.
3.
OBTENCIN
DE VARIABLES ALEATORIAS
EN LAS MCE

El propio plapteamiento de la cuestin (obtencin de


va.riables alea.to ras en las MC E) provoca cierta perplejidad:
do qu casualidad se puede hablar si todo cuanto realiza la
mquina aebe :Sei: programado de .antemano?
En esta cuestin hay efectivamente ciertas sutilezas;
pero conciernen ms bien a la filosofa y, por eso, las dejaremos. a un lado.
Sin embargo, cabe sealar que las variables aleatorias
consideradas en el 2 representan conceptos matemticos
id~ales. S6lo la prctica dilucida si pueden ser empleados
para describir determn~dos fenmenos de la naturaleza.
Esta descripcin es siempre aproximada. Es ms, una variable aleatoria que describe satisfactoriamente una magnitud
fsica en unos fenmenos, puede resultar una caracterstica
1
) Resulta lo mismo determinar un valor de. cada
una de las variables t 1 , ~ 2 ., ~N o hallar N valores de la variable ~
ya quo todas estas vatial>les aleatorias son idnticas (tienen la misma

distribucin).

27
desafortunada <le esta misma magnitud al tratarse de otros
fenmeno s.
De la misma forma, un camino qe se asemeja a una
recta (a una recta matemtica ideal ~i n anchura) en el
mapa del pas, se convierte en nna fran ja s inuosa en el
plano a gran escala de una localidnci ...
Suelen distinguirse tres procedimientos que se aplican
para obtener variables aleatorias: to. blas de nmeros a le:iLorios, generadores de nmeros aleatorios y el mtodo do
nmeros seudoalontorios.
3. t. Tablas de nmeros aleal<1rios. R.ealiccmus el experimento siguiente. Tomemos diez tarj et as iguales escribiendo
en ellas las cifras O, 1 , 2, .. ., 9, metamos todas las t.arjetas
en un sombrero y, despus de mezclarlas bien, comen cemos a
extraerlas, con la particularidad de que cada vez sacaremos
una tarjeta solamento, la vol veremos a m eter m1 el sombrero
y mezclaremos de nuevo todas las larjotas. Las cifras as
obtenidas pued en se r recogidas en una tabla semejante a l a
tabla A de la pgina 78 al final d~I libro (por l'azones de
comodidad las cifras en la tabla /\. vi enen agrupadas do cin co
en cinco).
Esta t abla lleva el nombro et c tabla de nmeros aleatorios
aunque sera ms justo denomi11arl ~ tnbfa de cifras a lea torias. Dicha tabla puede ser introd uci<l a en la m emoria de l a
1l1CE. Cad a vez que , durante los clculo!1, necesitemos un
valor de la variable aleatoria con la distribucin

0,1

0,1

(22)

podemos tomar una tras otra ]as cifras de esta t.Ahla.


La mayor tabla de nmeros aleatorios pu blicada hasta el
momento contiene 1. 000 000 de cifras1) . Por supuesto, fue
obtenida empleando, en lugar d el sombrero , una tcnica ms
moderna: u na ruleta electrnica. Un esquema elemental de
esta ruleta aparece en la fig. 7 (el disco giratorio es pa rado en seco y se toma la cifra que sefinla In fle cha).
Es preciso subl'aynr que no es tan f.ci l como parece obtener una tabla buena de nmero~ aleatorios. Todo apara l o
1
)

RA N D Corporation, A millon random digi t.s

with 100 000 normal deviates, The Free Press, 1955.

28
fsico real genera variables aleatorias cuyas dis.tribucione~
difieren ligeramente de la distribucin ideal (22). Adems,
durante el experimento pueden surgir. errores (por ejemplo.
una de las tarjetas puede adherirse por cierto t iempo al
forro). Por eso, las tablas obtenidas suelen comprobarse

Jl'lg. 1

minuciOsamente a base de tests estadsticos especiales para


ver .!li no h~y .c ontradiccin entre unos u otras propiedades
de grupos de nmeros y la hiptesis de que estos nmeros
representan valore.s de la val'iable aleatoria (22).
Veamos uno de los tests ms sencillos. Consideremos una
tabla que contiene N cifras. Supongamos que el nmero de
cerQs en esta tabla es v 0 , el niero de unos es vl, el nmero
de doses es v 2 , etc. Calculemos la suma
9

~ (v 1 -0,1N) 2

i-0

La Teora de las probabilidades permite predecir los


limites entre los c.u~les puede estar comprendida esta suma
que no puede ser excosivemente grande (por cuanto la espe-

29
ranza matemtica de cada v 1 es igual a 0,1. N) ni excesivamente pequea (ya que esto equivaldria a una <cregularidad
excesiva en la distribucin. de los valores).
Las tablas de nmeros aleatorios se emplean slo cuando
los clculos correspondientes al mtodo de Montecarlo se
realizan a mano. Esto se debe a que todas las MCE poseen una
memoria interna relativamente reducida en la que no se
puede introducir una tapla grande. Por otra parte, tampoco
conviene introducir la tablit en la memoria externa y recurrir constantemente a ella ya que esto afectara considerablemente la velocidad del cl~u]o.
Sin embargo, no est ~xcluido que, con el tiempo. Ja
capacidad de memoria de las MCE aumente l:iensiblem&Qte
y entonces las tablas de nmeros aleatorios resulten de .gran
utilidad.
3.2. Generadores de nmeros aleatorios. La ruleta mencionada en el punto 3.1 podria, al parecer, combinarse con la
computadora y emplearse para generar, segn sea necesario,
nmeros nleatorios. Pero todo di~positi vo mecnico resulta
demasiado lento comparado con la .MCE. Por eso, para
generar variables aleatorias suelen emplearse los ruidos
en l as lmparas electrnicas: si durante un intervalo fijo llt
de tiempo el nivel del ruido sobrepasa el umbral escogido
un nmero par de veces, se inseribe el cero; si esto ocurre
un nmero impnr de veces, se inscrib~ el uno 1).
A primera vista, ste es un procedimiento muy cmodo.
Imaginemos m generadores de .este tipo que funcionan sin cesar paralelamente y envfan ceros y unos aleatorios a todos
los rdenes binarios de una clula especial. Cada ciclo corresponder a un nmero de m rdenes. Durante el clculo
podemos dirigirnos en cualquier momento a esta clula y
tomar de ella un valor de la variable aleatoria y. uniformemente distribuida en el intervalo (O, i ). Este valor, claro
est, ser aproximado y quedar representado por una fracci6n binaria de m rdenes O, awa<2, CXcm > donde cada
~ 1 ,1 imita la variable aleatoria con la distribuci6n

Existen procedim ientos ms _perfeetos.

30
Sin embargo, tambin este mtodo tiene sus defectos.
En primer lugar, es difcil comprobar la calidad& de los
nmeros generados. Se hace necesario un control peridico
ya que debido a distin~os desarreglos puede surgir la as
llamada -t deri va en la distribucin (cuando los. ceros y los
unos en uno de los .rdenes dejan de aparecer C-On la misma
frecuencia). En segundo lugar, todos los clculos en las
MCE suelen realizarse dos veces para evitar intermitencias
casuales. Pero, sin recurrir durante los clculos a la memoria, es imposible reproducir los mismos nmeros aleatorios
y si recurrimos a la memoria, volvemos al caso de las t ablas.
Generadores de este t ipo resultar4n tiles, sin duda,
cuando comenzarn ~construirse MCE especializadas, adaptadas a l!t sol~ci6n de. problemas por el mtodo de Montecarlo. En las MCE universales, que raramente se aplican
para los clculos a base de nmeros aleatorios, no es econmico mantener y explotar un dispositivo especial. Resulta
ms conveniente emplear los asi llamados nmeros seudcaleatorios.
3.3. Nmeros seudaleatorlos. Como quiera que la calidado de los nmeros aleatorios empleados se controla mediante tests especiales, podemos no interesarnos por el procedimiento aplicado para obtenerlos exigiendo solamente que
verifiquen el sistema de tests adoptado. Incluso podemos
intentar. c~lcularlos a partir de una frmula dada. Por supuesto, debe ser una 'fO:rmula muy ingeniosa.
Losnme.i:os que se obtienen a partir de una frmula y que
imitan los valte.s de ln variable a.lea.tori~ y se denominan
nmeros seudalea.torlos. La palabra ~imitan significa que
ests nmeros verifican una serie de tests como si fuesen
valores de esta V.ariable aleatoria .
El primer algbritl,llO "destinado a l~ construccin de nmeros seudoaleatorios fue propuesto por J . von Neumann y se
conoce como el mtodo de centros de cuadra4os. Para explicarlo
recurriremos a u n ejemplo,
Co.nsideremos el n.1,Uero 'Yo :: 0,9876 formado por cuatro
cifras. Al elevarlo al cuadrado obtendremos el nmero
y~ = 0,97535376 de ocho cifras. Tomemos las cuatro cifras
que aparecen en el ce.ntro de este nmero y pongamos l'i =
= 0,5353.
Elevando ahora y 1 al cuadrado <-v: = 0,28654609), escojamos de nuevo las C\latro cras del centro y pongamos y 1 =

31

y:

= 0,6546. P rocediendo de la misma forma, t endremos


=
= 0,42850116, 'Ya = 0,8501 y; = 0,72267001, y 4 = 0,2670;

v! =

0,07128900, y5 =- 0,1289, etc. 1).


Pero este mtodo no puede considerarse satisfactorio pues
da ms nmeros pequeos de lo que se necesita. Por eso,
fuero n desarr ollados por distintos cientficos otros algoitmos.
Algunos se basan eii las particularidn.dos do las MCE concretas. A titulo de ejemplo, consideremos uno de estos algoritmos empleado en la 1lfCE Strel.

Ejemplo. 2). Strel es una M CE de l!'es direcciones con conHt flo tan
te. La clula e n la que se inscribe el nmiero z coust:l de 43 1de11es binarios (fig. 8). La com putadora opera con nlmcros binarios en forma
normalizada: z = q2*P, dondo p es el orden y q la ma ntisa del

Montiso

Signo de man foo

Orden

Sig no del orden


Flg. 8

nmero. En el orden j-smo de la clula puede figurar un cero o un


uno; r epresentemos por e1 esta variable. Ent.on1:es
e.1

e.2

835

q= 21+22+ ... +"235

+ .. .+ e.42 2.

P = e.312 5+ e3s2 4

La condicin de normalizaci n 0,5 ~ q < 1 significa que e1 es s iem se representa por Hl cero y ~l ~igno ~ - ~
pre igual a 1. El signo
por el uno.
. El nmero Yli+i se obtiene del umt~ro '\' realizando tres <lpcrac.JOnes:
1) Yk se multiJJlica >or una constanto grande q ue, como regla,
E-O toma igual a 10r1;

1
) Podemos resumir cs1.e algoritmo en la f rmyl
i'li+1 = P (y}, donde F r&presenta el conjuuto de operaciones (!lle

deben~os

realizar con el nmero y11 para obtener Yh+t El nmero y0 es


un numero da<lo.
Z) Vase H. M. Co60.1b, Ilccn.nocnyiai:auc 'tucna ):IJia MaumBbl
Cmpe11a , Teopml eepoJITHOCTll 11 ee npHMc11emu1, 3, ~ 2 (1958), 205211 (l. M. Sbol, Nmeros soudoalea torios paru lu computndora S trel;
en la revista Toora de las probabilidadus y sus aplicaciones, .3,
n 2 (1958), pg. de 205 a 211).

32
2) la imagen dcJ producto 1017 Y11. se desplaz:t en siete 6rdenes hacio
la izquierda (d!! modo que fos siete primetos rdenes del producto desaparecen mipntras que en los rdenes del 36 al 42 aparecen ceros);
3) se toma el valor absoluto del nmero obtenido (despus do normarlo) que ser precisamente Yk+i
Si arrancamos de y 0 = i, este proceso permite o~tener ms de
80 000 nmeros diferentes 'Vk; despus en la suoesn surge un pOTodo
y los nmeros comienzan a repetirse. Diferentes controles de los
50 000 primeros nmeros .han dado resultados plenamente satisfactorios. Estos nmeros se hati empleado ms de una. vez para la solucin
de divers-0s problemas.

Las ventajas del mtodo de nmeros seudoaleatorios


son evidentes. En primer lugar, para obtener un nmero
basta realizar unas cuantas operaciones sencillas y gracias
a esto la velocidad de generacin de nmeros aleatorios es
del mismo orden que la velocidad de funcionamiento de la
MCE . En segundo lugar el programa ocupa s6lo unas cuantas clulas de la memoria. En tercer lugar, cualquiera de
los nmeros Y1t puede ser reproducido fcilmente. Por ltimo, basta comprobar una vez solamente la calidad de esta
sucesin para poder aplicarla despus reiteradamente y con
seguridad en lo solucin de problemas semejantes.
El mtodo tiene slo un defecto: la reservu de los nmeros seudoaleatorios es limitada . Pero existen procedimientos que permiten obtener una cantidad mucho mayor
de nmeros. En particular, so pueden variar los nmeros
iniciales 'Yo Actualmente los clculos en los que se emplea
el mtodo de Montecarlo so realizan, en su aplastante mayora, aprovechando los nmeros seudoaleat.orios. (Vanse informaciones complementarias en le 10).
4.
TRANSFORMACIONES
DE VARIABLES ALEATORIAS

En la solucin de diferentes problemas tropezamos con la


necesidad de simular distintas variables alea to ria s. En la s
etapas iniciales del desarrollo del mtodo de Montecarlo los
investigadores intentaban obtener cada variable aleatoria
construyendo una ruleta apropiada. Por ejemplo, para hallar
los valores de la variable aleatoria con la distribucin

33
siguiente

(o~~ o~;s

o,;;5

o.~~s)

(22')

puede emplear la ruleta representada en la fig. 9 que fun


ciona igual que la ruleta de In fig. 7, pero no est dividida
uniformemente si no en partes proporcionales a las p,.

!'le

Ffg. 11

Pero esto no hace falta: resulta que los valores de cual


quier variable aleatoria se pueden obtener efectuando transformaciones de una sola variable aleatoria (os decir, de una
variable standard). Suele emplearse con este fin la variable
aleatoria 'Y uniformemente distribuida en el intervalo (O, 1).
Conocemos ya cmo se obtienen los valores de y.
Denominaremos sorteo de la variable aleatoria ~ el proceso de determinacin de un vnlor de esta variable aleatoria ~
mediante la transformacin de uno o varios valores de '\'
4.1. Sorteo de una variable aleatoria discreta. Suponga
mos que es preciso obtener valores de la variable aleatoria

34

con la distribucin
X1

~= ( Pt

X2 , Xn.)

Pz Pn

Consideremos el intervalo O< y< 1 dividindolo en n


intervalos de longitudes p 11 p 2 , , . Pn Es evidente que
las coordenadas de los puntos de divisin sern y = p 1 ,
Y ""'P1 + P2 Y =Pi
Y = P1 + P2 +
+ p.,,,_1 IndiquemosP2con Pat
las cifras 1, 2, ... , n los

+ ...

y
Flg.

to

intervalos obtenidos (fg. 10). Con esto concluyen los preparatiYos del sorteo de S Cada vez que tengamos que realizar .un experimento~ y sortear el valor de
t-0maremos un
valor de 'I' y construiremos el punto y = y. Si este punto
a parece en el intervalo correspondiente al nmero t, aceptaremos que = x 1 (en este experimento).
,Es muy ..fcH argumentar la legitimidad de este procedimiento. En efecto, puesto que la variable aleatoria 'Y est
uniformemente dist#buida en (O, 1), la probabilidad de que
'I' pertenezca a uno de los intervalos es igual a Ja longitud
del ~isino . Por consiguiente,

s,

P {O<i'<P1}=P1
P {P1 <'V< Pt + Pz} = P2.

P {P1 +P2+ +Pn-1 <y< i}=Pn


Segn nuestro mtodo, tomamos
P1

s=

x 1 cuando

+ P2 + + P1-1 <Y< P1 + Pz + +Pi

y la probabilidad de ello es igual a p 1

Por supuesto, al emplear la MCE podemos pasarnos sin


Ja fig. 10. Supongamos que tanto los nmeros xlt x 2 , , Xn
como las probabilidades Pt Pi
P2, P1 + Pa
p3, . , 1

35
han sido introducidos uno trai- otro en la memoria. En la
fig. t1 do la pg. !!iguient.e representnmos el esquema
sinptico del subprograma de sorteo de S.
Ejemplo. Sortcnsc iO valores de la variable 11 lel'ttoria eon la d istribucin

Escojamos los -valores rle y tomando pares de cifra11 de In tabla A


(pg. 78) multiplicados por 0,01 1}. Es decir, 1' .,....,. 0,86; 0,51; 0,59;
O,Oi; 0, 1)5; 0,66; 0, 15; 0,58; O,li4; 0,34.
Segn nuestro esquema, los vulorc:.s de y ml'uores cue 0,58 corresponli1m a O = 3 mient.r11s que los valoros y ;;;;i. 0,58 corresponden a O =
= 4; do modo qu~ ohknernos los valores siguiente.\!: O = !,; 3: !,; 3: 4;
4;3;3;4;3 .

Cabe !'lubrayar que el orden de numeracin de los valores


. , Xn en la distribucin de ~puede ser arbitrario
pero debe fijarse antes de comenzar el sorteo.
4.2. Sorteo de una variable aleatoria continuo. Supongamos ahora que debemo~ obtener valores de una variable
aleatoria ~ distribuida con la de11sidad > (x) en el i ntervalo (a, b).
Demostremos que los valores de so pueden determinar
de la ecuacin

x1, x 2 ,

(23)
a

o sea, que escogido ya el valor do 'V es preci so revolver la


ecuacin (23) para hallar el valor de S
Para demostrar esta afirmacin consideremos la funcin
X

y=

Jp(x)dx.
a

1) Puesto que on este ej!lmplo los valores de > tienen


1
dos cifras decimales, basta tornar los valores ne y con dus cifras
decimales. Aceptado ~ste grado de aproximadn, so nos pu<!dc dar el
caso de y = 0,58 que debu ser agregado al callo de y > o,:is (ya \uo
el valo1 y = 0,00 os posible mientras quo til valor y= t,00 es
im11osiblc). Si empleamos para v nmeros con varias cifras decimales, el
(~aso y = p 1 se hace poco probable y puede ser agregado a cualquiera
de las desigualdades.

36

1
Determlriamos 'V
1

1
'V< Pt1

s!
no

'

Tomamo1
~=:i-1

Aumentamo1 en I las dtrecciones de laa c~lulas de las


que se toman 7>1 y .1"1

lleconstruimos ltll

direcciones
de Pt V Xt

Flg. tt

37
De las propiedades generales (15) y (16) clo la densidad resulta
que
y (a) = O, y (b) = 1
y que la de rivada

y' (x) = p (x) > O.


Por lo tanlo, 111 funcin y (x) crece montonamente del O
a l 1 (fig. 12). Debi do a esto, toda recta y = y, donde O <
< y < 1, corta e) grfico de y = y (x) en un punto nico
y

Flg. t i

cuya abscisa se toma precisamenle igual a ~ Es decir, la


ecuacin (23) tiene :;iem pre solucin y esta solucin es nica.
Tomemos ahora un intervalo arbitrario (a', b') contenido en (a, b). A los p untos

a'< x <

b'

do este intervalo les corresponden las ordenadas do la cnrva


y = y (x) que satisfacen la desigualdad

y (a')

<

<

y (b').

Por eso si ~ pertenece al intervalo a' < x < b' , resulta


que y pertenece al intervalo y (a') < y < y (b') y viceversa.

38

(fig. 13). Luego

P{a' < s <b '} = P {y(a') < y<y(b')}.


P uesto que
tenemos

est uniformemente distribuida en (O, 1),


b'

p {y (a') < 1< y (l/)} =y (b') - y (a') =

p (:r;) dx.

a'

Es decir,

P {a'<~< b'} =

b'

p (x) dx;

(J'

pero esto sign ifica precisamente que la variable aleatoria

Flg. t8

~. raz de la ecuacin (23), tiene la densidad de probabilidad


p (x).

Ejemplo. Se die.o que la variable aleator ia '1 est uniformemente di&


trlbulda en el intervalo (a, b) si su densidad es constante en este inter-

Yalo:
1
p(x)= - 0 -a

para

a < .x< b.

39
Para sortear los valores de 11 formamos la ecuacin (23):

La integral se c.alcula fcilmente y resulta


r -a

b -a= ,

de dcmde obtenemos una expresin explcita para r:


t

= a + 'V (b - a).

(24)

Otros ejemplos de aplicacin de la frmula (23) pueden


verse e n los puntos 5.2 y 8.3.
4.3. Mtodo de Neumann para el sorteo de una variable
aleatoria continua. Puede resultar que sea muy difcil resolver la ecuacin (23) respecto a ;; por ejemplo, si l a integral
de p (x) no se expresa en funciones elementales o si la densidad p (x) viene dada grficamente.
Supongamos que la variable aleatoria ; est definida
en un int.ervalo finito (a, b) y que su densidad est acotada
(fig. 14):
p (x) ::;;;; M 0

Los valores de se pueden sortear de la siguiente manera


1) se escogen dos valores y' y y" de la variable aleatoria y
y se considera el punto aleatorio r (r1', r ") con las coor
denadas
r' =a + y' (b -a) y r" = y"Mo;

2) si el punto l' aparece por debajo de Ja curva y =


== p (x}, tomamos = 11'; si el punto r aparece por encima
de la curva y = p (x), retiramos de la consideracin el
par (y' , 'Y") y escogemos un par nuevo de valores (y', y").
La argumentacin de este mtodo viene en el punto 9.1.
4.4. Sobre el sorteo de variables normales. Existe una
gran variedad de procedimientos que se aplican para sortear
distintas variables aleatorias. No nos detendremos en ello.
Suelen emplearse slo si los mtodos de los puntos 4.2 y 4.3
resultan poco efectivos.

40
En parLicular, esto ocurre en el caso de la variable aleatoria normal ' ya que la ecuacin
1V 2:1t

x
J e--a
t

X=y

- oo

no admite solucin explcita y el intervalo de los valores posibles de ~ es infinito.


y

Mo' - - - - - -- - --

--.

Flg , 1'

La tabla B que viene al final del libro (en la pg. 78)


contiene valores (ya sorteados) de la variable aleatoria normal C con la esperanza matemtica M~ = O y la varianza
O~ = 1. Es fcil demostrar1) que la variable aleatoria
~, = a + O'~
(25)
tambin ser normal; adems, de (10) y (11) se deduce que
M~' = a y D~' = 0
1
}

La dernostracin viene cu ol punto 9.2.

41

Por CQnsiguiente , la frmula (25) permite, emplea ndo la


tabla B, sortear valores de cualesquiera vari ables normales.
4.5. Otra vez sobre el ejemplo del punto f .2. Ahora podemos explicar c6mo se han escogido los puutos aleatorios en
las figuras 1 y 2. En la fig. 1 hemos co11struido los puntos
con las coordena das
X = l' 0 y = y".
Los valo~es y' y y" se han calcula do a base de los grupos
de cinco cifras de la tabla A: x 1 = 0,86515, y, = 0,90795;
:r:, = 0,66155, y 2 = 0,66434, etc.
Se puede demostrar1) que, debido a que las abscisas y las
ordenadas de nuestros puntos son independientes, la probabilidad de que uno de estos puntos aparezca en una regi6n
cualquiera interior del cuadra do es igual al rea de esta
regin. En otras palabras, los puntos estn uniformemente
distribuidos en el cuadrado.
En la fig. 2 hemos construido los puntos con l as coordenadas
X = 0,5 + 0,2~' 0 y = 0,5
0 ,2~"

con la particulari dad de que los va lores ~ y t" se toman


de la tabla B u no tras otro:
X1

= 0,5

+ 0,2 0, 2005, y = 0,5 + 0,2 1 ,1922;


= 0,5 + 0 ,2 (-0 ,0077), ...
1

X2

Un punto no se ha considerado por quedar fuera del cuadrado.


De la frmula (25) se deduce que las abscisas y las ordenadas de estos puntos represent an va ri~bles aleatorias normales
con la esperanza maiemtiea a = 0,5 y la varianza a' = 0,04
1

La domostraein vic:.ne en el punto 9.3.

2
EJEMJ;>LOS
DE APJ... ICACION
DEL M-eTODO
DE MONTECARLO
CAPITULO

5.
ANLISI$
DE UN SISTEMA D.E SE.RVlClOS

5.1. Descripcin del probJ~ma. Consideremos uno de


los sistemas ms sencillos de servicios. Consta de n lneas
(canales o centros de servicio), cada una de las cuales se
puede emplear para atender a los consumidores. E l sistema
recibe pedidos, con la particnlnridad de que los momontos
de recepcin son aleatorios . Todo pedido va a la linea nmero 1. Si en el momento de recepcin del k-simo pedido (designemos este momento por T ,.) la linea est libre, comien za
a cumplir el pedirlo durante un tempo toe (toe es el tiempo d.e
ocupacin de la. ~nea.). Si en el momen~ T 1, la lnea nmero 1
est ocupada, el pedido se transmite instantneamente a la
lnea nm~ro 2, etc. Por ltimo, si en l momento T k resultan ocupadas todas las lneas, el sistema rechaza el pedido.
Es preciso dcter.qiinar el promedio de pedidos que atender
y rechazar el sistema durante un. tiempo T.
Est claro que Semejantes problemas pueden surgir al
anali z_a r el funciol)aroient.o de cunlquier empresa y no slo
de las empresas <Je. servicios. En algunos casos muy espe
cial es se logra la solucin analtica. Pro,, en casos complejos
(d los que t ratareios ms tarde), el mtodo de Monteearlo
constituye el nico mtodo de clculo.
5.2. Flujo elemental de pedidos . El primer problema que
se plantea al analir.ar sistemas de este tipo es: qu repre
sen:ta el flujo de pedidos? Este problema se resuelve de mane
ra experimental a base de un estudio suficientemente prolongado de los pedidos. El anlisis de los flujos de pedidos,
correspondientes a distintas condiciones, ha permitido destacar algunos casos que suelen darse con suficiente frecuencia .
Un flujo de pedidos se denomina flujo elemental (o flujo
de Poisson) si el intervalo de tiempo ~ que transcurre entre
dos pedidos sucesivos representa una variable aleatoria

43

distribuida en el intervalo (O, oo) con la densidad


p(x)=ae- ax,

{26)

La ley (26) lleva tambin el nombre de distribucin exponencial (vase la fig. 15, donde hemos representado las densidades (26) para a = 1 y a = 2).
y

2
Ftg. Hi

Es fcil calcular la esperanza matemtica de T:


..,

MT =

<'<>

xp (x) dx=

xae - 0 xdx.

Integrando por partes (u = x y dv

Mt =[- .:re-xlo+

ae-xdx), obtenemos

-llX]"" =7
1
Jf e-axdx = [. --70

o
El parmetro a se denomina densidad. del flujo de pedidos.
La frmula correspondiente al sorteo de se obtiene
fcilm0nt0 de la ecuacin (23) que tiene en nuestro caso ln
forma

44
Calculando la integra l del primer miembro, obtenemos la
relacin
1-e - 0T--y,
de donde resulta
't =

--lu (1-i).
a

Como quiera que la variable 1 - y tiene la misma distribucin que y, podemos emplear en lugar de la ltima frmula
esta otra
1
= --ln
-y.
4

(27)

5.3. Esquema de clculo. Consideremos, pues, el funcio namiento del sistema descrito en el punto 5.1 en el caso
de un flujo elemental de pedidos.
Pongamos cada lnea en correspondencia con una clula
de la memoria interior de la MCE inscribiendo en la clula
el momento en que queda libre la linea. Sea ti el momento
en que q1eda libre la i-sima lnea. Aceptaremos que los
clculos se inician cm el momento T 1 = O en el q ue se recibe
el primer pedido. Podemos aceptar que en este momento
todos los t 1 son iguales a T 1 ya que todas las lneas estn
libres. El tiempo final del clculo ser Tun = T1 + T.
El primer pedido va a la lnea nmero 1. Por consiguiente, esta linea permanecer ocupada durante el tiempo toe
Por eso, debemos tomar en lugar de t 1 el valor nuevo (t1}nv =
toe, agregar uno al contador de los pedidos cum= T1
plidos y pasar a considerar el .segundo pedido.
Supongamos que hemos considerado ya k pedidos. Debemos entonces sortear el momento de recepcin del (k
1)simo pedido. Con este fin escogemos el valor siguiente de y
y calculamos, a partir de la frmula (27), el valor siguiente = "t'i.i despus determinamos el momeuto de recepci6n

1'k+1=T11. + '"
Estar libre para este momento la primera lnea? Para
responder, debemos comprobar la condicin
t,~Ttt+l

(28)

Si esta condicin se cumple, ello significa que en ol momento


Tk+ 1 la linea est ya libre y puede cumplir el pedido. Deberemos sustituir t 1 por Ttt+i
t 00 , agregar uno al contador

45
de pedidos cumplidos y pasar a considerar el pedido si-

guiente.
Si la condicin (28) no se cumple, ello significa que la
primera lnea est ocupada en el momento T1i+i Comprobamos entonces si est o no libre la segunda lnea:
t2

<

1'11.+t

(29)

Si se cumple la condicin (29), sustituimos t 2 por Tit,+ 1

+ toe

agregamos uno al contador de pedidos cumplidos


y pasamos a considerar el pedido siguiente.
Si la condicin (29) no se cumple, comprobamos la condicin
ts ~ THt

Puede ocurrir que para t.odo t del 1 al n se tenga


t1>T1r.+1

o sea, puede suceder que todas las lneas estn ocupadas en


el momento Th+i En este caso, agregamos uno al contador
de pedidos rechazados y pasamos a considerar el pedido
siguiente.
Cada vez que calculemos Th+tt deberemos comprobar
adems la condicin de finalizacin del experimento
T1r.+1

> Trin

Si esta condicin se cumple, finalizamos el experimento.


En los contadores de pedidos cumplidos y de pedidos rechazados tendremos entonces los nmeros cum y rech
Este experimento se repite N veces (empleando distintos
valores de y) y se toma la media de los resnltados encontrados
N

Mcum

~ ~ ~ ~lcum V)>
j=1
N

Mre ch

~ ~ ~

J.l>rech l

i-1

donde cum cJ> Y rech <J> representan los valores de cum


de rech en _el j-simo experimento.
En la ffg. 16 aparece el esquema sinptico del programa
Cc:>rrespondiente a este clculo (si es necesario, podemos obtey

46
Entrada de datos

i= 1

Ptn del e:r.peri mentn

+-- ---.____r_,._<- T_i_n_?_


110

!
1

inv = ioJ+ 1

jnv

< N?

--

l= t

~1

_. -

_,1- --

_i,_~__r_h_?_ _

..___

110

l (t 1)nv = Th + toe
J.
Agregamos 1 al contador de
pedidos cumpl tdo1

Agregamos J al contadnr
de pedid1>s rechazado1

1--

'
Clculo d e resultados., salida
de resultados. fin del
problema

l'f1t=-+lny

T1tH""Tk+-r11

I
Flg. 16

knv=kvrl-1

1
1

41
ner en la seccin Fin del experimento los valores de 011 m rJ>
(Ji que resultan en ca-da uno de los experimentos).
5.4. Problemas ms complejos. Es fcil persuadirse de
que este mismo mtodo se puede aplicar en sistemas mucho
ms complejos.
Por ejemplo, t 00 puede ser una variable aleatoria, y no
una magnitud constante, y tomar diferentes valores para distintas lneas (lo que significa que las lneas se distinguen
por sus equipos o por la calificaci6Ii del personal). El esquema de clculo , en esencia, continuar siendo el mismo,
pero 'habr 'que sortear cada vez los valores de t 00 correspondiendo a cada lnea una frm ula de sorteo propia.
Tambin se pueden con~iderar los llam ados sistema.s
con espera que, en lugar de rechazar inmediatamente el
pedido que no pueden cum plir, lo conservan durante cierlo
tiempo tp (ttempo de permanencia del pedido en el sistema);
si en el transcurso de este tiempo se libera una de las lneas,
dicha lnea atiende el pedido.
Adems se pueden consi derar sistemas on los qul:l el
pedi do en turno es atendido por la linea que se li bera a ntes
que otras. Por otra parte, es factible tomar en consideracin
las intermitencias aleatorias de las lueas, el ti empo aleatorio de reparacin de las mismas, la variacin segn el tiempo
de In densidad del flujo de pedi dos y otros muchos factores.
Por supuesto, el a nlisis de estos sistemas exige determinados esfuerzos. Para obtener resultados de valor prctico
debe ser ideado un modelo correct.o. Esto requi ere un estudio
suficientemente minucioso de los flujos reales do pedidos, el
cro nometraje del fon cionamiento de la s secciones del sistema,
otc.
Hablando en trminos generales, os preciso conocer las
leyes probabilsticas de foncionamient-0 de las secciones del
sistema. En este caso, el mtodo de Montecarlo permite ha~
llar las leyes probabilst icas del funcionamiento de todo el
sistema por complejo que sea.
Estos mtodos de anlisis resultan muy tiles cunndo se
trata de proyectar unn empresa: en lugar de realiza r un experimento real cost oso (y a veces imposible de realizar), pode
mos exporimentar en la MCE simula ndo distintas variantes de organizacin del trabajo o del empleo de Jos
equipos.
y de ree h

48
6.

ANLISIS
DE LA GALlDAD
Y DE LA SEGURIDAD
DE PIEZAS

6.1. Esquema elemental de ~lisis de la calidad. CQnsideremos una pieza S que const.a de cierta cantidad (posiblemente grande) de elementos. Por ejemp~o, si S es un aparato
elctrico, sus elementos pueden s~r las resistencias (R<k
las capacidades (C110), las lmparas, et c. Supongamos que

~f--~-2_2_K_!2~5_%_2_W~----t~
Jl'lJ. i 1

la calidad so determinn por un parmetro U que poede ser


calculado si se conocen los parmetros rle todos los elementos

U= f (Ru" Rm ... ; C<o Cc21 ; ).

(30)

Por ejem plo, si Ves la tensin en una seccin de un circuito elctrico, podemos considerar, basndonos en la ley de
Ohm, las ecuaciones rlel circuito y determinar U de estas
ecuacione!:.
S in embargo, los valores reales de los par me tros de los
elementos diiieren de los valores nominales. Por ejemplo, la
resistencia representada en la fig. 17 puede tomar un valor
cualquiera comprendido entre 20,9 y 23,1 kQ.
Surge la cuestin siguiente: cmo influyen en el valor
de U las desviaciones que se observan entre los valores
reales y nominales de los parmetros de todos los elementos?
Los Hmit.es de variacin de U podran estimarse escogiendo para todo elemento los valores peores de los parmetros.
Pero no siempre ni mucho menos se conoce qu coleccin

49
de parmetros ser la peori>. Adems, habiendo muchos
elementos, esta estimacin resultar exagerada por cuanto
es poco probable que todos los parmetros a la vez resulten
malos.
Por eso, es ms razonable tratar de estimar la esperanza
matemtica MU y la varianza OU considerando que tanto
los parmetros de los elementos como el propio parmetro U
son variables aleatorias. La magnitud MU representar el
valor medio de U en toda la partida de piezas y la magnitud
DU indicar qu desviaciones entre U y MU pueden presentarse realmente.
Recordemos que (segn hemos sealado en el punto 2.2)

MU

=l:=f (MRu,, MR,s1t . ;

MCu>1 MC.,,. .. ; ... ).

Siendo f una funcin ms o menos compleja, se hace imposible el clculo analtico de la distribuci'n de U. A veoos
se logra determinarla experimentalmente analhando una
gran partida de piezas elabora das. Pero esto no siempre es
posi.b le y jams puede realizarse en la fase de diseo de una
pieza.
Intentemos aplicar el mtodo de Montecarlo. Para ello es
necesario: a) conocer .las caractersticas probablsticas de
todos los elementos y b) conocer la funon f (mb exactamente, saber calcular el valor de U a partir de cualesquiera
valores fijos de Ru> R 1i> ; C0 ,, C 11,, ; ) .
La distribucin probahilistica de los parmetros de cualquier elemento se puede obtener experimentalmente analizando una gran partida de estos elementos. Dicha distribucin resulta muy a menudo normal. Por eso, muchos
investigadores parten de ello considerando, por ejemplo,
que la resistenci a del elemento representado en la fig. 17
es una variable aleatoria normal p con la esperanza matemtica Mp = 22 y con 3cr = 1,1 (recordemos que en un
experimento es prcticamente imposible obtener un
valor de p que difiera de Mp en ms de 3u; vase la f6rmula (20)).
El esquema del anlisis es muy sencillo: para todo elemento se sortea primero el valor del parmetro y se calcula
despds, a partir de la frmula (30), el valor de U. Este experimento se repite N veces; obtenidos los valores 0 11 U2 ,

50

.... , u,.,.,

se toma aproximadamente

MU~

~ V,
N

DU

~ N~t [ ~

(U1)'1.-

~ (~

U1rJ.

i -1

jcsJ

Si N toma valores grandes, podemos sustituir el factor


1/(N - 1) de la ltima frmula por 1 / N y entonces dicha

Flg. l8

frmula resulta un simple corolario de las frmulas (8) y (9).


En la Estadistica Matemtica se demuestra que para valores
pequeos de N conviene emplear el factor 1./(N - 1).
6.2. Ejemplos de anlisis de In seguridad. Supongamos que
queremos estimar el tiempo medio de duracin de una pieza
aceptando que conocemos el tiempo de duracin oe cada uno
do sus elementos.
Si consideramos que el tiempo lt11 i de duracin de todo
elemento es una magnitud fija, no habr. dificultad en calcular el t iempo t de duracin de la pieza. Por ejemplo, en la
fig. 18 viene representada esquemticamente una pieza que
deja de funcionar cuando falla cualquiera de sus elementos;
en este caso tenemos
( 31)

En cambio pal'a la pieza con un alemento dobla<lo repre


sentada esquemticamente en la fi g. 1f.l, tenemos

t = mn lt(l); t 1 ~ ; mx (t,3, ; l 141); tml


(32)
ya que si falla, por ejemplo, el elemento .M 3, la pieza con
tinuur funcionando a base del elemento .M 4.

51
El tiempo de duracin de cualquier elemento es, en realidad, una variable a leatoria 0 0 , , . Cuando decimos que el
plazo de duracin de una bombilla es de 1 000 horas, estamos hablando del valor medio M6 de la variable 8; todos
comprendemos que una bombilla se fundir antes mientras
que otra (de la misma parti da) durar ms.
Si conocemos las densidades de distribucin de 0 0.,
para todos los elementos que componen la pieza, podemos

3
5

2
4

P lg. t9

calcular M0 por el mtodo de Montecarlo aplicando e) proce


dimiento del punto 6.1. En efecto, para todo elemento podemos sortear el valor de la variable 0 011 ; sea t, 11 , este valor.
Ahora, a partir de la frmula -correspondiente (31) o (32),
podemos hallar el valor t de la variable aleatoria 0. Repi. tiendo este experimento un nmero (N) suficiente de veces,
podemos aceptar que
N

M8 ~ i~ ~ t1,
J-t

donde t J es el valor de t obtenido en el ;-simo experimento.


Cabe subrayar que no es nada' fcil determinar la distribucin del plazo de duracin e<ll) de los elementos; por
ejemplo, para elementos que funcionan d urante largo tiempo
se hace difcil la organizacin del experimento pues habr
que esperar a que falle una cantidad suficiente de estos
elementos.
6.3. Otras posibilidades del mtodo. Los ejemplos expuestos permiten ver que la metodologia del anlisis de la cali-

52

dad de las piezas se basa en una ideu muy simple. Es pTeciso


conocer las caractersticas prohhhilstioas de todos los
elementos que constituyen la pieza y saber calculat la variable que nos interesa como una funcin de los parmetros
de estos elementos. La simulacin permite entonces abarcar
las propiedades aleatorias de los parmetros.
Aparte de la esperanza matemtica y de la varianza de
la variable que nos interesa, la simulacin permite obtener
mucha ms informacin til. Supongamos, por ejemplo,
2

15

24

32

17

19

2
6

)(

Flg. 20

que hemos obtenido una gran cantidad N de valores U,


U 2 , , UN de la variable aleatoria U. Basndonos en
estos valores, podemos encontrar aproximadamente la
densidad de distribucin de U. Esta cuestin concierne, en
realidad, a la Estadstica ya que se trata de la elaboracin
de resultados de experimentos (realizados, es verdad, en
una MCE). Por eso, nos limitaremos a considerar un ejemplo
concreto.
Supongamos que hemos obtenido un total de N = 120
valores U1 , U 3 , , Uno de la variable aleatoria U comprendidos todos en los limites

1<UJ<6,5.
Dividamos el intervalo 1. < x < 6,5 en 11 intervalos
iguales de longitud 6.x = 0,5 (o en otro nmero de intervalos no muy grande ni tampoco muy pequeo) y calculemos
cuntos valores u, corresponden a cada intervalo. Hemos
representado estas cantidades en la fig. 20.
Dividiendo entre N = 120 estas cantidade.s, obtendremos
las frecuencias correspondientes a cada intervalo. En nuestro
caso estas frecuencias son: 0,017, O; 0,008; 0,12; 0,20; 0,27;
0,14; 0,16; 0 ,06; 0,008 y 0,017.
En cada intervalo construimos a hora un rectngulo de
rea igual a la frecuencia de U1 correspondiente a dicho
intervalo (fig. 21). En otras palabras, la altura de todo rectn-

53
gulo es igual a la frecuencia di vdida entre l'lx. La figura
escalonada as obtenida se <tenomina histograma.
El histograma ofrece una aproximacin de la densidad
desconocida de la variable aleatoria U. P or esto, el rea del
histograma comprendida entre, digamos, x == 2,5 y x = 5,5
nos da un valor aproximado de la probabilidad

u< 5,5} ~ 0,95.

p {2,5 <

El clculo (experimento) realizado nos permite afirmar,


por consiguiente, que con una probabilidad aproximadamente igual a 0,95 la variable U est comprendida en el
intervalo 2,5 < U< 5,5.
En la fig. 2i hemos representado, a ttulo comparativo,
la densidad de la variable a leatoria normal ~' con los parmetros a = 3,85 y a = 0,88. Si partiendo de esta densidad
calculamos la probabilida:d de que ~' pertenezca al intervalo
2,5 < b' < 5,5, obtendremos el valor 0,91.1) bastante prximo al valor anterior.
1}

Sgun (14), tenemos

P {2,5 <

Expliquemos cmo se efectan los clculos.

~' <

5,5}

= <1

5 ::.

2n

(x-11)'&

rJ e --za- dz.

2,S

Efectuemos en la integral la sustitucin x - a


entonces
P {2.5 <

~ <

5,5J =

,,

V 2n J e

at. Tendremos

-~
2

at,

11

donde

ti = 25O'-a == -1 ' 54 y t 2= 55CJ-a

i
88

Para calcular el valor de la ltima integral hay que recurrir a la tabla


de la as llamada integral de probabilidades a> (x) on la que vienen
los valores de la funci6n
(J>

(:r)

= l -2n

1i

r -2
J dt.
X

As encontramos
p {2,5 <

{;' < 5,5) .... Q,5 ( (1,88)+a> (1,54)) = 0,91.

54
6.4. Obsenaci6n. Lamentablemente son raroll, por ahora,
los casos en los que se aplican semejantes clculos. Es difcil explicar esto. Posiblemente se deba a que los diseadores
ignoran esta posibilidad.
Adems, para poder aplicar este mtodo al diseo de
piezas es necesario estudiar previamente las caractersticas

0.1

)(

Flg. 1t

probabilsticas de los elementos que componen la piexa.


Rste es un trabajo voluminoso. Es verdad, que , conociendo
estas caractersticas, se puede estimar la calidad de cualquier
pieza formada por dichos elementos. Tambin se puede
analizar cmo vara la c.aJidad al sustituir un elemento por
otro.
Es de esperar que en los aos prximos estos clculos se
hagan habituales. En cuanto a las caractersticas probabilsticas necesarias de los elementos, sern ofreci<las siempre por
las empresas que los elaboren.

55
7.

ANLISIS DEL PASO


DE NEUTRONES A TRA VES
DE UNA PLACA

Las leyes probabilisticas de la interaccin entre una partcula elemental (neutrn , fotn, mesn, etc.) y la materia
son conocidas. Como regla, es preciso conocer las caractel'sticas macroscpicas -densidades, flujos, etc. - de procesos
en los que participa una gran cantidad do estas partculas.
Esta situacin se asemeja a la que hemos analizado en el 5
y en el 6 y resulta muy apropiada para la aplicacin del
mtodo de Montecarlo.
Posiblemente sea en la Fisica de neutrones donde se aplica
con mayor frecuencia el mtodo de Montecarlo. Analizaremos
la variante ms sencilla del problema sobre el paso de neutrones a travs de una placa.
7 .1. Planteamiento del problema. Supongamos que una
placa homognea infinita O~ x ~ h es bombardeada por
un flujo de neutl'ones de energa E 0 siendo el ngulo de incidencia igual a 90. Al chocar con los tomos de la placa, los
neutrones pueden esparcirse elsticamente o pueden ser
absorbidos. Supongamos, para simplificar, que el neutrn
conserva, al esparcirse, su energa y que cualquier cambio
en la direccin del neutrn, provocado por el choque con
un tomo, es igualmente probable (esto ltimo sucede en
materias constituidas por t.omos pesados). En la fig. 22
hemos representado las distintas suertes que pueden correr
los neutrones: el neutrn (a) atraviesa la placa , el neutrn
(b) es absorbido y el neutrn (e) es reflejado.
Es preciso calcular la prob abilidad p+ de que el neutrn
atraviese la placa, la probabilidad p- de que el neutrn
sea reflejado y la probabilidad p de que el neutrn resulte
abRorbido.
a interaccin de 1os neutrones con la materia se caracteriza en este caso mediante do~ constantes ~e y 1: . que se
denominan seccin de absorcin y seccin de dispersin, re~
pectivamente. Los ndices e y s provienen de las letras iniciales de las palabras inglesas capture (captura) y scattering (dispersin).

56
La suma de estas secciones lleva el nombre de seccin
completa
: = l:c
~
Las secciones tienen el siguiente significado fsico: al
ch ocar el neutrn con un tomo de la materia, la probabilidad

+ .

"

Ftf, H

de absorcin es igual a 1: 0 /}; y la probabilidad de esparc


miento es igual a l:~/1:.
El recorrido libre.'>.. del neutr6n (o sea, su recorrido entre
un choque y otro) es una variable aleatoria que puede tomar
cuale~quiera val ores posit.ivos con la densidad de probabilidad
p (x) = l:e- l:x,
Es fcil ver que la densidad de Ja variable '>. coincide
con la densidad (26) de la variable aleatoria -c en el caso del
flujo elemental de pedidos. Esta analoga con el punto 5.2
nos permite escribir inmediatamente Ja frmula para el

57
recorrido libre medio
MJ. =1 / ~

y la f6nnula para el sorteo de ?...

t
?...=-yin "l
Resta explicar cmo se escoge la direccin aleatoria del
neutrn cuando se produce el esparcimiento. Puesto que
existe en el probJema una simet r.a respecto al ej e x, esta
direccin se determina plenament e con slo indicar el ngulo q> entre la direccin de la velocidad del neutrn y el eje
Ox. Se puede demostrar1) que la condicin de que todas las
direcciones son igualmente probables es en este caso equivalente a la condicin de que el coseno de este ngulo ==
= cos q:> est uniformemente distribuido en el intervalo
(-1, 1). Toma ndo en la frmula (24) a = -1 y b = 1,
obt enemos la frmula para el sorteo de i:
=2y-1.
7.2. Esquema de anlisis basado en 1a simulacin de
trayectorias reales. Supongamos qne el neutrn ha experimentado el k-simo esparcimiento en el punto de abscisa Xk
correspondient e al interior de la plnca y ha comenzado a
moverse en la direccin f.lll
Sorteemos el recorrido libre
A.11 = -(1/ ~) ln -y
y calculemos la abscisa del punto de
(fig. 23)
X11H

coli~in

siguiente

=X+ A,1.

Com probamos la condici6n de que la placa ha sido atra vesa da


X.Hf

> h.

Si esta condicin se cumple, conclui mos el anHsis de la


trayectoria del neutrn y agregamos u no al contador de las
partculas que atra viesan la placa. En el caso contrario,
comprobamos la co ndicin de reflexin
xh+i
1)

< 0.

La demostracin viene en el punto 9.4.

58
Si esta condicin se cumple, concluimos el anlisis de la
trayectoria y agregamos uno al contador de las partculas
reflojndas. Si tampoco se cumple esta condici6n , o sea, si
O ~ x 11 +1 ~ h, ello significAr que el neutrn expel'iro.enta

1
Flg. U

la (k
1 )-sima colisin en el interior de la placa; habr
que sortoar de nuevo el destino)) del neutrn en esta colisin.
De acuerdo con el punto 4. i escogemos el valor siguiente
de i' y comprobamos la condicin de absorcin
i'

<

Eel~.

Si esta ltima desigualdad se cumple, concluimos el an.


lisis de la trayectoria y agregamos uno al contador de part culas absorbidas. En el caso contrario, aceptamo ~ que
el neutrn experimenta un esparcimiento en el punto de
Abscisa XH i Realizamos entonces el sorteo de la nueva
rlirecci6n del neu trn
~l11+1 = 2t -1
y volvemos a repetir todo el ciclo (to mando , claro est,
otros valores para y).

59
Hemos escrito todos los valores de 'V sin nd ices sobrentendiendo que cada valor de 'V se emplea una vez solamente.
P ara analizar un eslabn de la trayectoria es preciso emplear
tres valores de 'V
Los valores iniciales para cada trayectoria son

x 0 =O y 0 = 1.
Despus de haber analizado de esta forma N trayectorias,
resultar que N~ neutrones han atravesado la placa, que N neutrones han sido reflej ados y que N neutrones hnn quedado
absorbidos.
Es evidente que las probabilidades buscadas son
aproximadamente iguales a las razones
N+

p ~ N

N-

YP ~

NO

En la fig. 24 hemos representado el esquema sinpt ico


del programa correspondiente a este anlisis. El ndice j
representa el n.mero de la trayectoria y el ndice k corresponde al nmero de la colisin (a lo largo de la trayectoria
que se est analizando).
Este mtodo de anlisis, a pesar de ser muy natural,
tiene sus deficiencias. En particular, resulta difcil calcular
por este mtodo la probabilidad p+ cuando ella es muy pequea. Pero precisamente con este caso nos encontramos al analizar la proteccin contra la radiacin.
Existen modificaciones ingeniosas del mtodo de Montecarlo que pueden ser aplicadas tambin en estos casos.
Detengmonos brevemente en la variante ms sencilla
del anlisis que se basa en el empleo de los as llamados pesos.
7.3. Esquema de anlisis basado en el empleo de pesos
que. sustituyen la absorcin. Consideremos el mismo problema sobre el paso de los neutrones. Supongamos que a lo
largo de la trayectoria se desplaza un dren~ formado por un
gran nmero w 0 de neutrones idnt.icos. Al producirse la
colisin en el punto de abscisa X, un promedio de w0 (l!cl~)
de neutrones del rtren ser absorbido y un promedio de
w 0 (~./~) de neutrones ser esparcido.
Agreguemos la cantidad w0 CI:crn) al contador de partculas absorbidas y continuemos el anlisis del tren esparcido

60

J Entrada de datos )
~

j =1

l
.
1
A11=--Jny

.______ _,

N;v = N'V1+i

s 1
~

no

,r---y-<~Z-c/_l:_
?_

.___N_~_v_-_N...,...~1_+_1_ _1~<---==s==l~......:~LI
i

inv=vJ+'1

1 fnv < N?

.___(_,[

J no

,.:---~--~~~-

'

Cdlculo de p+, p- y p

Salida de resultados, /in


del problema

_:_n:.=__

_,
___,

61
aceptando q ue todo el tren restante se mueve en uoa misma
direccin.
Todas las frmulas que hemos dado en el punto 7 .2 se
conservan . La nica diferencia consiste en que, despus
de cada colisin, la cantidad de neutrones en el tren disminuir, siendo

ya que una parte del ((tren, con un total de w11, (1-:c/1:) de


neutro nes, ser absorbida; a dems, la trayectoria jams
podrp terminarse con la absorcin.
La variable w11 suele denominarse peso de neutrn y, en
lugar de un tiren formado por w 11 neutrones, suele hablarse
de un neutrn de peso wk. El peso inicial w0 se toma, como
regla, igual a 1. Esto no contradice nuestra hiptesis de
que el tren es grande, pues es fcil ver que w0 es un factor
comn de todos los pesos wh que se obtienen al analizar una
trayectoria .
El esquema sinptico del programa correspondiente a
este anlisis viene representado en la fig . 25. Como puede
verse no resulta ms complejo que el esquema de la fig. 24.
Sin embargo, se puede demostrar1 ) que siempre es ms conveniente calcular p por el mtodo de este punto y no por
el mtodo del punto 7.2.
7.4. Observacin. Existe una gran variedad de proce
dimientos de clculo que se basan en el empleo de distintos
pesos. No podemos detenernos aqu en estas cuestiones.
Sealemos solamente que el mtodo do Montecarlo es
aplicable a problemas mucho ms complejos relacionados
con partculas elementales. Por ejemplo, al caso en que el
medio se compone de materias distintas y tiene una estructura
geomtrica arbitraria o al caso en que la energa de la partcula vara despus de cada colisin. As mismo , hace posible
el anlisis de otros muchos aspectos de los procesos nucleares:
permite prever la posibilidad de que el tomo se desintegre al
chocar con el neutrn y de q ue surjan neutrones nuevos;
permite determinar el momento de inicio y la condici6n
de mantenimieJ':}to de la reaccin en cadena; etc.
1) La demostracin viene en el punto 9.5.

62

1Entrado~ de

dato1

k = O, x 0 -0, o=1. wo = 1
1

i
' = ""-

l ny

-Ll-----.,j
__N_ri_v_=_N_t_J_+_w_11~-'I

z11+1

<O?

'-----.,...,-----'1-~
~

I
1 N~v=N~ 1 +w11 (Zc/I)

l/nv

LJ

< N?

_ __11_+_1=_ 2y_ -_

1_ _,

no

--

knv = kvJ +i

Clculo de p", P- ll P -,
Salida de resultados , fin
del problema
Flg. 25

63

s.

CLCULO
DE LA INTEGRAL DEFJNJDA

Los problemas considerados en los pargrafos 5, 6 y 7


eran de contenido probabilstico por su esencia y la aplicacin del mtodo de Montecarlo en estos problemas parecfa
bastante natural. Ahora consideraremos un problema puramente matemtico, el clculo apro~imado de la integral
definida.
Puesto que el clculo de i ntegrales defi nidas equivale al
clculo de reas, podramos emplear el mtodo del punto
l. 2. Aqu explicaremos otro. mtodo, ms efect.i vo, que
permite construir diferent.es modelos probabilsticos para
resolver este problema por el mtodo de Montecarlo y explicaremos cmo escoger entre estos n1orlelos los ms convenientes.
8.1. Mtodo de elculo. C<>nsi deremos una funcin g (x)
definida en el intervalo a< x < b. Es preciso hallar el
valor aproximado de la integral
b

l =

Jg (x) <lx.

(33)

Tomemos una densidad de distribucin p (x) arbitraria


definida en el intervalo (a, b) (o sea, una funcin p ~ (.-i;)
cua lquiera que cumpla las condiciones (15} y (16)).
Adems de la variahle aleatoria ~ defin ida con l n densidad Pi (x) en el intervalo (a, lJ), necesitaremos emplear
la variable a lea to ria
T\ = g (~)lp ~ (~).

Segn (18), tenemos


b

Mri =

(g (x)/Pr. (x)] Pl (x) dx = l .

C<>nsi<ieremo~ ahora

N variables aleatorias T\t 'l'lii. , 'llr-'


independientes e idnticas, y apliquemos a la suma de estas
variables el t.eorema central del lmite del punto 2.4. La

frmula (21) se puede escribir en nuestro caso as

{I ~ ~ '11-11<3 v~11 } ~o.997.

(34)

J-t

Escojamos N valores ~ 11 ~~ , SN La ltima relacin


nos dice que siendo N suficientemente grande tendremos
N

..!.. ~ (/ (~)

N ~ PE(~)
; .. 1

~l

(35}

Al mismo tiempo nos dice que con una elevada probabilidad


el error de la aproximacin (35) .no pasa de
3VD11IN.
8.2. Cmo escoger el esquema de clculo. Como hemos
visto para calcular la integral {33) se puede emplear una
variable aleatoria cualquiera definida en el intervalo (a, b).
En todos los casos
Mr = M [g (~)/p ~ (~)l = l .
Pero la varianza 011 y , por consiguiente, tambin la estimacin (35) del error depende de qu variable ~ tomemos.
En efecto,
b

Drt=M(rf')-P=

J[g (x)/pdx)1dx-P.
2

Se puede demostrar1 ) que esta expresin ser m1mma


cuando p~ (:z:) sea proporcional a 1g (x} I
Por supuesto, no podemos escoger frmulas muy compleas para PE (x} ya que entonces resultar laborioso sortear
los valores de ~. Pero es posible guiarse por esta recomendacin a la hora de escoger la funcin p -e, (x) (vase el ejemplo del punto 8.3).
En la prctica el mtodo de Montecarlo no se aplica para
el clculo de integrales de tipo (33) ya que existen mtodos
ms exactos basados en las frmulas de cuadratura. Pero la
situacin cambia si pasamos a considerar integrales mltiples: las frmulas de cuadratura se hacen muy voluminosas
mientras que ol mtodo de Montecarlo no necesi ta casi
modificaciones.
1

La demostracin viene en el punto 9.6.

65
8.3. Ejemplo numrico. Calculemos el valor aproximado de la
integral
n/2

l=

Jo

senzdz.

El valor exacto de esta integral es


zr./2

sen :dz=(-cos zJlr 2 = t .

o
Emplearemos para el clc1.lo dos distintas variables aleatorias ':
una con la densiiiad constante P (z) = 2/n (o sea, uniformemente
distribuida en el intervalo (O, n/ 2)) y otra con la densidad lineal
Pt (z) = 8.rln". En la ig. 26 hemos representado ambas densidades as

l(

Flg. 28

como la funcin integrando !len z. La figura permite ver (\Ue la densidad lineal est en mayor consonancia con la recomendacion del punto 8.2 de que es deseable que Pt (z) y sen z sean proporcionales. Por
ello, es de esperar que el segundo procedimiento d un resultado mejor.
(a) Soa Pt (.:a:) = 2/n en el intervalo (O, n/2}. La frmula del sorteo
de ~ se puedo obtener de la frmula (24.) tomando a = O y b = n/2:
~ = ny/2.
La frmula (35) da
N

~ 2~ ~ SeD~J
i-t

66
Sea N = 10. Tomemos para los valores de y las ternas de cifras de
la tabla A (multiplicndolas por O,OOt). Los clculos auxiliares aparecen en la tabla 1.
Tabla 1
8

10

y1 jo. B6s/o, 15910. 019jo, 566jo, 1ssjo. 6641 o, 345 1o. 655 Jo, 812 j o. 332

sJ

1,359/0.25010. 124,0,889o,2431t,04310,542 11,0291 i

,2751 o,s21

s,0,97810,24710, 12410, 776,0,24110,86410,51610,8571O,95710,498

sen

El resultado de los clculos es


I ~ 0,952.
(b) Sea ahora Pi (x) = 8x/r,2 Para sortear ~ empleamos la ecuacin (2 3)

(8x/n2) clx = y;

de aqu encontramos fcilment e que


:rt

, -

~= 2 V'\'
La frmula (35) da
:i2

/~ BN

N
~

2.J

,...

. 1

sen E1
-~J

Sea N = iO. Los nmeros y se escogen igual que en el caso (a).


Los clculos auxiliares aparecen en la tabla 2.
Tabla 2
i

11

10

YJ

,0,86510, 15910,07910,56610, 155,0,6641 0 ,34510,65510 ,81210, 332

~j

1,46io .fi 200.442J1. 1s2io .618!1,2sol o,92a 1,211 l1 ,41s

sen~

Io,9os

0,680 O,H3fi O,!l68 0,783 0,937 0,748 0,863 0.751. 0,608 0,868

67
El resultado dt- los clculos es
1 ~1.orn.

El segu ndo procedimiento, como lo habamos previsto, tla un


sultado ms exact.o.

re-

8.4. Sobre la estimacin del error. En el punto 8.2 ya


hemos sealado que el error absolulo que se obtiene al calcu1ar la integral l mediante la frmula (35) no puede prcticamente sobrepasar la magnitud 3V DrIN. Pero el error absoluto real es, como regla, considerablemente menor. Por eso,
para caracterizar el enor suele emplearse en la prctica otra
magnitud denominarla error probnble
6pr = 0,675YD1/N.
El error absoluto real depende de lo!>. nmeros aleatorios
que se han empleado en el clculo y puede suceder que sea 2
3 veces mayor o varias veces menor que &~r Es decir, 6pr
indica tan slo el orden del error y no sus lnn ites1 ).
Volvamos al ejemplo del punto 8.3. Empleando l os valores que
aparecen en las ta blas 1. y 2 y la frmula para la varianw indicada en
el punto 6. 1, podem(IS calcuJar aproxim ndame nle las varianzas Or
en ambos procedimientos 2).
En la tabla 3 indicarnos para ambo:> mtodos los valore
aproximados de las viiriam:.as Dr los errvrcs probables <'ir calculados
Tabla 9
Mtodo

(a)

<>pr

011

0.1 03

,256
1

(b)

6cl

1
1

0,02i

0 ,016

0,048
0,016

1 ) Sobre el error probable vase <>l punto 9.7.


2) En el caso del mtodo (n) tenemos

10

Dr

~ 9~: [ ~

;-1

10

(sen s1)2-

1~ ( ~

1- 1

sen s 1

)2] =

n2
= 36(4
,604-3,670)=0,256.

68
base de estos valores y los orrorcs absolutos reales 6 0 1\1 que se han
obtenido en los clculos.
Como vemos, Bcal es efectivamente del mismo orden que lipr

11.

APENDICE
9.
DEMOSTRACION
DE ALGUNAS

PROPOSICIONES

E n este pa rgrafo insertamQs la demostra cin de a lgunas


proposiciones enunciadas en los pargra fos a nteriores que o
bien nos parecen un tanto voluminosas para el nivel que
hemos mantenido en la exposicin o bien requieren conocimientos ms profundos de la Teora de las probabilidades.
9.1. Argumentacin del mtodo de Neumann para el
sorteo de una variable aleatoria (punto 4.3) . El punto aleatorio r est uniformemente distribuido en el rectng ulo abcd
(fig. 27) cuyo rea es igual a M 0 (b - a) 1). La probabilidad
de que el punto r aparezca por debajo de la curva y =
c:r p (x) y no sea rechazado de la consideracin, es igual a
la razn entre las reas
b

~ p (z) dx

t
Mo (b - a)

Mo (b-a)

La probabilidad de que el punto r aparezca por debajo


de la curva y = p (x) y corresponda al intervalo a' < x <
En el caso del mtodo (b} tenemos

O') ~

10

t:lt [~ (S-O; ~J )2- 1~


;- 1

10

2j
J-1

~
1
n;

rJ

= 576 (6,875- 6, 777) = O,Ot6.


1

Vase ol punto 9.3.

69

<

b' es tambin igual a la razn entre la s reas


b'

S p (.r) dx
a'

M 0 (b- a}

Por consiguiente, entre todos los valores que hemos escogido para ~. In parte de los valores que pertenecen al ntery

o
Ftg. 27

va lo (a', b') es igual al cociente


b'

S p (z ) dx

1
'
M o(b- a) 111o (b-a) a

,,.

1p( ) dx
X

a'

que es lo que se quera demostrar.


9.2. Densidad de distribucin de la variable ~ = a +
a~ (punto 4.4). Se supone que la variable ~es una variable normal con la esperanza ma temtica M6 = O y la

70
varianza

o~ =

1 de modo que su densidad es


:x:a

Pt (x) =___!__e - T.

V2m,.

Para calcular la densidad de distribucin de la variable


escojamos dos nmeros arbitrarios x 1 < x 2 y calculemos la probabilidad
~,,

P {x1 < ~ <x2} = P {x1 <a+aC <x2}=


=

p {

Xt CJ

< e<

.Xz (J a }

Por consiguiente,

P {x1 < ~

<

1
x2} = V n
2

r
J

xi

(x2 - a}/(J

-2

dx.

(x-a)Ja

Realizanrlo en la ltima integral la sustitucin x' = a


obtenemos

P {x 1 <..,.,., < x2} = V 1


2n:o

(X' -a)3

:ri

+ <Jx,

-"2(jr-

x ,

:q

de donde resulta (vase (14)) que la variable ~ es una variable normal con los parmetros M~' = a y D ~' = a 2
9.3. Distribucin uniforme de los puntos (y', y") en
el cuadrado (punto 4.5). Puesto que las coordenadas del
punto (y', y") son independientes, su densidad p (x, y)
es igual al producto de las densidades
P (x, Y) = Pv' (x) Pv (y).

Cada una de estas densidades es igual idnticamente a 1.


Pol' consiguiente, p (x, y)
1 (para O < x < 1 y O <
< y < 1). Pero esto significa precisamente que el punto
(v', v") est uniformemente distribuido en el cuadrado de
dimensin 1.
9.4. Seleccin de la direccin aleatoria (punto 7 .1 ). La
direccin se puede determinar mediante un vector de longitud 1 que ananca oel origen de coordenadas. Los extremos de estos vectores se encuentran en la superficie esfrica
de radio 1. l~as palabras cualquier direccin es igualmente
probable significan que el extremo del vector representa

71
un p unto alea torio Q uniformemente distribuido sobre la

superfi cie esfrica; es decir, la probabilidad de que ~~ pertenez ca a cualq uier elome nto dS de la superficie es igu al a:~ .

.)(

Flg. 28

T omemos en la superf icie csf l'ica las coordenadas esfricas (q, \ji) con el eje po lar Ox (fig. 28). 'l\:i n<lremos entonces

dS = sen

qi

drp clip

(36)

con la particularidad de q ue O ~ <p ~ n , O ~ ')I < 2n.


Sea p (q>, ~i) l a densidad del punto aleatorio (<p, '11).
Debe mos tenor
p (q>, '11) d(!l d\jl = dS/4n;

de aqu y de la relacin (36) se. deduce q uc


sen 1p

p (<p, \jl)= 4 n ;

(37)

72
A partir de la densidad conjunta de q> y ''" podemos calcular
fcilmente 1as densidades de esta s variables:
2n

p~(cp)=

sen q>

5o p (cp, \j))d'P=-2-,

(38)

PiJ ('P) = J P (<p, 'i>) d<p = 2n


o

La igualdacl p (<:> , lJl) = p'P (qi) p q, (lj;) demuestra que

(39)
qi

lJl son i ndependientes.


I!;s obvio que lj.l est uniformemente d ist ribuida en el
i ntervalo (O, 2n) y, por eso, la frmula para el sorteo de 'IJ> es

w=

2ny.

(40)

La f rm ula pnra el sorteo de cp se obtiene de la ecuacin (23) :


Ql

; "\sen xdx=y,

de donde res ulta

cos

<r

1 -

2y.

(41)

Las f rmulas (40) y (41) permiten escoger (sortea r) la direccin alea toria. Po r supuesto, los valores de y en estas
frmulas deben ser distintos.
La ltima f6rm ula del punto 7 .1 se obtiene de la frmula
(41) si se toma 1. - y en lugar de v; pero estas variables tienen
la misma d istribuci n.
9.5. Ventaja del mtodo <le anHsis basado en el empleo
de pesos (punto 7. 3). Consi deremos las variables aleatorias
v y v ' iguales a la cantidad (peso) de neutrones de una misma
tra yectoria que atra viesan la placa, con la particula rdad
de que la primera variable corresponde al mtodo del punto
7. 2 y la sogu nda , al mtodo del punto 7. 3.
Segn el contenido fsico del problema tenemos

Mv = Mv' = p.
(Vase Ja demostracin rigurosa de esta afirma cin en el
libro f3].)

73

Puesto que v puede tomar slo <los valores, O y 1, la distribucin de v es


v=

(~. 1 ~p+).

Tomando en cuenta que v 2 = v, es fcil ver que D v =


= p~ - (p ~) 2 Es evidente que l a variable v' puede tomar,
aparte del valor O, un conjunto infinito de valores w0 = 1,
w1 , w 2 , , w,., .. . Por eso, su dist1ibucin es
V

, _ (w w
-

w2

w,. . . .

qo qi q?. q,. q
Los valores concretos de q, como \eremos, no nos harn fa lta.
Cualesquiera que sean podemos representar la varianza en
la forma
00

Dv' = ~ wlq11 -(p.") 2


h=O
00

Observando que todos los w,. ~ 1 y q ue


,

L}w11q 14

,.,.

h-0

Mv' =

= p+, obtenemos la desigualda d Ov' ~ p" - (p)2 = Ov.


El hecho de que la va rianza de v' sea siempre menor que
l a varianza de v significa que, al calcular p+, el mtodo del
punto 7. 3 dar siempre mejores resultados que el mtodo
del punto 7. 2. La misma conclusin podemos hacer en cuanto
al clculo de p- y tambin al cclulo de p si la absoren
no es muy grande.

9.6. Seleccin ptima de ~ (punto 8.2). En el punto_8.2


hemos obtenido la expresin para la varania p t. Para
hallar el mnimo de esta ex pr"esi6n, ~icndo llrliitmria Ja seleccin de p (x) , recurriremos a la siguiente desigualdad
conocida del Anlisis
b

[J

1u (x) v (x) j dx

J2 ~) u2 (x) dx Jr;2(z)-ik.

Tomando u = g (x)IY p ~ (x) y v =


esta desigualdad
b

[ Jr
a

Ji r
(x) / dx ~ J
b

V p ~(a:), optene~s
-

g2(x)
Pt (x)

, .

b '

r
.,f g2(i) ' : .
dx J Pdx) dx ~} p(x)4oi,~
ti

:."

d_e

74
Por consgnicnte,
,

01)~ [ ~

dx]

g (x) 1

2
-

(42)

P.

Resta demostrar que la cota inferior se alcanza cuando


p ~ (x) es proporcional a 1g (:e) I
Sea
p~ (x) = _,_.l._K.....(z.....)_I_
(43)

l I g (z) / dx

Es fcil calcular que pMa esta densidad p (x) se tiene


b

[g (x)/pt(x)1 dx = [

J1g(x)1 dx

"

de modo que la vuria.n:ta Dri resulta efectivamente igual al


segundo miembro de (42).
Observemos que es prcticamente imposible emplear en el
clculo la densidad ms conveniente& (43): deberamos
b

copocer para ello el valor de la integral

J1 g (x) 1 dx; pero el


a

clculo de esta inLegral es, de hecho, un problema equivalente al probJema que tenemos planteado acerca del clculo de
b

la integral

Jg (x) dx. Por eso, nos hemos limitado n dar la


a

recomendacin indicada en el punto 8.2.


9. 7. Definicin del error probable (punto 8.4) .. Sea 6 la
variable aleatoria normal definida. en el punto 2.3. Es fcil
calcular que parn r = 0,6750' y cualosquiera a y a se tiene
a+r

J pc;(x)dx=0,5.

a-r

De aqu so deduce que

P {16 - a 1 < r} = P { 1~ - a 1 > r} = 0,5,


o sea, que lns desviaciones mayores que r y las desviaciones
menores que r son igualmente probables. Por oso, la magnitud r se denomina error probable de la variable aleatoria t;.

75
En el punto 8.1 hemos realizadoel clculo C1proxim ado de

l a variable normal p = (1/N) (11 1 + 'h + .. . + r1 /\.). Result que su esperanza matemtica es a :;::::: Mr = T y qHe
su varianza 0f; a!! = Dp = 0'1')/N. Por eso, el error probable
de la variable p es aproximadamente igual a 0,675YDlJ/lV.
10.
SO BHE LOS NMEROS
SEllDOALEATORIOS

Los algoritmos que se emplean para obtener n meros


seudoa lcatorios tienen, en su mayo ra, la forma
'YHt

=F

(-.,,).

(44)

Si se ha dado el nmero inicial y 0 , todos los nmeros siguientes > 1 , l'i . . . se calculau aplicando la frmula (44)
con k = O, 1, 2, ... Ambos algoritmos considerados en el
punto 3.3 son tambin de la forma (44) slo, en lugar de
sealar la forma analtica de la funcin y = F (x}, se hll
i ndicaclo el conjunto de operaciones que debe efectuarse con
el argumento x para obtener el valor de y .
10.L Cmo debe escogerse la func in F (x). El ejemplo
que sigue explica e11 qu consiste una ele las di ficolt.ades
principales que se plantea al escoger F (x).
Ejemplo. Demostremos que la funcin y = F (.:i:) cuyo grfico
aparece en la fig. 29 no se puede emplear para obtener, a partir de la
formula (44), nmeros seudoalcatorfos.
En efecto, consideremos en el cuadrado O< x < 1, O < y < 1
los puntos de coordenadas
('\'1 '\'2), (y,. )'4), (vs. Ya). - . ,
donde )' 2 = F ('y1), Y4 = P ('\'s). )'6 = F (y5 ), . Todos estos {)untos
~e cn<mentran sobre la curva !/
F (.r) y esto, por supuesto, est mu~'
mal ya que los puntos a leatorios vcrdadoros dllbcn cubrir uniformemente todo el cuadrado (vase el punto 9.3).

Este ejemplo pormite ver que el empleo <le la funcin


y = F (x) on la frmula (44) puede resulLar exitoso slo
si el grfico de esta funcin recubre con bastante densidad
todo el cuadra do.
Este es el caso, por ejemplo , de la funcin
y = {gx},
(45)

76

donde ges un nmero muy grande y {z} representa la parte


fra cciona ria del nmero z. En la ftg . 30 a parece el grfico
y

1 .

------------~

y .. F(x)

)(

.F lg. 29

de la funcin (45) correspondiente a g = 20. El l ector podr


hacerse una idea de lo que represent ar este grfie-0 si g = 517
10.2. Mtodo de congruencias (mtodo de residuos). El
algoritmo que ms se emplea para obtener nmeros seudoaleatorios fue propuesto por D. Lehmer . Se basa en la funcin (45), pero suele construirso de una manera algo distinta
que permite realizarlo fcilmente ep las MCE.
Se determina una sucesin de nmeros enteros mk t omando m 0 = 1 y calculando todos los nmeros sucesivos m,
m 2 , a parti r de una misma frmula
17
40
mk+t;;:;: 5 m.1 (mod 2 ),
(46)
donde le = O, 1, 2, ... Basndose en los nmeros m, se
calculan los nmeros seudoaleatorios
(47)

77
La fnula (46) significa que el nmero m4 + 1 es igual al
resto que se obtiene al dividir 5 11 m11 entre 240 gn la teoria
de las congruencias (vase cualquier texto de Teora de los
y

'

Y={20x~

)(

Flg. 30

nmeros) este resto lleva el nombre de residuo positivo mdulo 240 mnimo . Por eso, el algoritmo suele denominarse
mtodo de congruencias o mtodo de residuos.
Es muy fcil realizar las frmula s (46) y (47) en las
MCE que funcionan con nmeros de 40 rdenes aplicando
la operacin de multiplicacin con el nmero duplicado
de 6rdenes1 ) : hay que emplear l as cifras correspondientes a
los rdenes menores del producto.
El perodo de la sucesin m,. es igual a 238
En el caso de las MCE que funcionan con nmero do 36 rdones, so
toman en las frmulas (46) y (47) los nmeros 516 y 23e en lugar de .5 17
4
y 2 0; el perodo de la sucesin
es igual entonces a 23 1

m,.

1) La MCE Strel
realizar esta operacin.

(v~ase

el punto 3. 3) no puede

Tablas
Tabla A. 400 cifras aleatorias 11
86515
69 186
41 686
86522
72 587
52452
76773
04825
87 113
84754
0,2005
t,1.609
0,5864
0, 1425
0,9516
-0,5863
1, 1572
-0,4428

-0,3924

0,831.9
0,9780

90795
03393
42163
47171
93000
42499
97 526
82134
84778
57616
1, i922
-0,6690
-0,9245

-0,2863
- 1,7708
0,8574
0,9990
-0,5564
1,7981
0,4270
-0,7679

66155
42 502
85181

88059

89 688
33346
27256
80 317
45863
38 t 32

66434
99224
38967
89342
78416
83 935
66 447
75 120
24 520

64 294

56558
88955
33 181
67 248
27 589
79130
25 731
45904
19976
15218

12 332
53 758
72 f>64
09082
99528
904'10
37 525
75601
04 925
49286

Tabla B. 88 valores normales 21


0,0348
1,0423 -1,8149
-1,5893
0,5816
1,8818
0 ,7390
0,0904
1,5068 -1,t147
0 ,2776
1,2809
0,4043
0,6379 -0,4428
2,8854
0,4686
1,4664
1,6852
-0,5557
0,8115 -0 ,2676 -1.,2496
-0, 1032
0,5405 - 0,6022
0,0093
- 0 ,5098 - 1,1929 - 0,()572 -0,5061
0,6141 -1 ,359!)
1,4943 -0 . ~06
-0,8888
0,4t67 -0,8513
1,i054
0,8960
0,5154 - 0 ,7165
0,8563

-0 ,0077

94377
9i 641
53807
12 311
14480
45 420
16 287
70492
07824
89571

57 802
i 8 867
00 607
90 316
5096t
77 757
66 181
10 274
76 044
42903

1,1803
-0,2736
0, 1012
-2, 3006
- 0,9690
- 1,2125
0,2119
--0,1557

0,0033
1,0828
-1,3566
-0,6446
-0,0831

-..J

-0,2033
1,2237
-1,1630

00

1,3846

-1 ,4647
-1.,2384
-0, 1316
-0,7003
i ,8800

1) Las cifras aleatorias Imitan los valores de Ja variable aleatoria con le d istrlbucln (22) (Yase el punto 3 .1).
~)Los valores normales imitan los valores de la variable aleatoria Mrmal ((aussiena) t con los pnrmetros a ~ o

y O=

t.

LITERATURA

i. Buslenko N. P. , Golenk.o D. l., Sbol l. M. , Sragovich V. G .


Shreider Yu, A, Mtodo de en$ayos estadisticos (Mtodo de Montecarlo), Fizmatguiz, Ser.ie do la biblioteca matemtica, 1962
r. ycm~DKO H. rr.' roa CllKO ,n.. M.' CotoJib H. M.. CparOBlt'l B. r .
mp cifp,cp JO. A ; l'lfeTO,!l CTaTHCTH'ICCKllX l!CilhlTlBH (MeroA ~foUTe
J{a p.'10), cI>m1ii:arrna, CMB, 1962]
2. Ermakov S. M. Mtodo de Montecarlo y problemas referentes,
Nauka, 1971 [Ep~1a1'00 c. M. MeTOA MoHTe-Kap.t10 11 CAtea(Jthl9
BonpocM, HayKa, 19711
3. Sbol l. M. Mtodo$ numricos de Montecarlo, Nauka , 1973
[CoGo;ib H. M. 1JnCJI()BUMO MeTOAbl Mo1ne-RapJio, HayKa , 1973)

A NUESTROS LECTORES:

Min edita libros soviticos traducidos al espaol,


ingls, franr.s, rabe y otros idiomas extranjeros. Entre
ellos figuran las mejores obras de las distintas ramas de
la ciencia y la tcnica: manuales J>ara los centros de enseanza superior y escuelas tecno lo~icas; literatura sobre
ciencias naturales y mdicas. Tambin se incluyen monografas, libros de divulgacin cientifica y ciencia
ficcin.
Dirijan sus opiniones a la Editorial tMin, 1. Rlzhski
per., 2, 129820, Mosc, 1-HO, GSP. URSS.

lecciones populares

~
~

~
~

de matemticas

::

Se publicaron los siguientes libros

de matemticas de nuestro sel1o editorial:

E. Ventsel
Elementos de la teorla de los juegos
L . Golovin e l. Yaglom
Induccin en la Geometrfa
A .G. Krosch
Ecuaciones algebraicas de grados arbitrarios
A.I. Markushvich
Sucesiones recurrentes
l. Natanson
Problemas elementales d e mximo y mlnimo
V. Shervtov
Funciones hiperblicas
I.M. Yaglom
lgebra extrao rdinaria

L...~~~~~~~~~~~~~~~~~~~~~~~~~~~~~--'

Editorial MIR

Mosc

Anda mungkin juga menyukai