Anda di halaman 1dari 135

METODOS NUMERICOS Y

SIMULACIONES.
Luis Rodrguez Valencia
1
Departamento de Fsica
Universidad de Santiago de Chile
5 de septiembre de 2000
1
email: lhrodrig@lauca.usach.cl
ii
Contenidos
Introducci on. vii
1 Metodos numericos 1
1.1 Introducci on. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Integracion numerica. . . . . . . . . . . . . . . . . . . . . . . . 1
1.2.1 El area bajo una curva. . . . . . . . . . . . . . . . . . . 1
1.2.2 Metodo del punto medio: . . . . . . . . . . . . . . . . . 3
1.2.3 Metodo del Trapecio: . . . . . . . . . . . . . . . . . . . 3
1.2.4 Cotas de error: . . . . . . . . . . . . . . . . . . . . . . 3
1.2.5 Metodo de Simpson: . . . . . . . . . . . . . . . . . . . 3
1.2.6 Cota de error para metodo de Simpson: . . . . . . . . . 3
1.3 La derivada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Aproximaciones lineales y cuadr aticas. . . . . . . . . . . . . . 5
1.4.1 Diferencial: . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.2 Aproximaci on lineal: . . . . . . . . . . . . . . . . . . . 5
1.4.3 Aproximaci on cuadr atica: . . . . . . . . . . . . . . . . 6
1.5 Ajuste de curvas por polinomios. . . . . . . . . . . . . . . . . 7
1.6 Determinaci on de races de ecuaciones. . . . . . . . . . . . . . 9
1.6.1 Metodo de Newton-Raphson. . . . . . . . . . . . . . . 9
1.6.2 Metodo iterativo para determinar una raz de f(x) = x. 10
1.6.3 Metodo de la secante. . . . . . . . . . . . . . . . . . . . 11
1.7 Serie de Taylor y Maclaurin. . . . . . . . . . . . . . . . . . . . 12
1.7.1 Serie importantes de Maclaurin. . . . . . . . . . . . . . 14
1.8 Ecuaciones diferenciales ordinarias. . . . . . . . . . . . . . . . 14
1.8.1 Metodo de Euler. . . . . . . . . . . . . . . . . . . . . . 14
1.8.2 Metodo de Runge-Kutta. . . . . . . . . . . . . . . . . . 15
1.8.3 Metodos predictor corrector. . . . . . . . . . . . . . . . 15
1.8.4 Metodo de Milne: . . . . . . . . . . . . . . . . . . . . . 15
iv CONTENIDOS
1.8.5 Metodo de Adams. . . . . . . . . . . . . . . . . . . . . 15
1.8.6 Ecuaciones de orden mayor. . . . . . . . . . . . . . . . 16
1.9 Derivacion numerica. . . . . . . . . . . . . . . . . . . . . . . . 16
2 Elementos de probabilidades 17
2.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 T omelo con calma. . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Cosas concretas. . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 Lanzar un dado. . . . . . . . . . . . . . . . . . . . . . . 19
2.3.2 Lanzar un dardo a un blanco. . . . . . . . . . . . . . . 19
2.3.3 Lanzar dos dados. . . . . . . . . . . . . . . . . . . . . . 19
2.4 Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.1 Poblaci on o Universo . . . . . . . . . . . . . . . . . . . 20
2.4.2 Eventos simples . . . . . . . . . . . . . . . . . . . . . . 20
2.4.3 Eventos compuestos . . . . . . . . . . . . . . . . . . . 20
2.4.4 Probabilidad, caso discreto . . . . . . . . . . . . . . . . 20
2.5 Sacar cuentas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5.1 Concepto b asico de multiplicaci on. . . . . . . . . . . . 25
2.5.2 Permutaciones. . . . . . . . . . . . . . . . . . . . . . . 25
2.5.3 Combinaciones. . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6.1 Distribucion binomial. . . . . . . . . . . . . . . . . . . 28
2.6.2 Caso continuo . . . . . . . . . . . . . . . . . . . . . . . 29
2.6.3 Valor esperado, varianza y desviacion est andar . . . . 34
2.6.4 Funciones de variables aleatorias . . . . . . . . . . . . . 36
2.6.5 Funcion distribucion del promedio . . . . . . . . . . . . 37
2.6.6 Muestras peque~ nas . . . . . . . . . . . . . . . . . . . . 42
2.6.7 M as sobre funciones distribuci on (f
d
) . . . . . . . . . . 43
2.7 Generaci on de n umeros aleatorios. . . . . . . . . . . . . . . . . 46
2.8 Ejercicios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3 Estadstica de datos 51
3.1 Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2 Estadgrafos muestrales . . . . . . . . . . . . . . . . . . . . . . 52
3.3 Distribuciones de frecuencia . . . . . . . . . . . . . . . . . . . 53
3.4 Metodo de mnimos cuadrados . . . . . . . . . . . . . . . . . . 54
CONTENIDOS v
3.4.1 Variaciones . . . . . . . . . . . . . . . . . . . . . . . . 56
3.4.2 Coeciente de correlaci on lineal de Pearson . . . . . . . 58
3.4.3 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4 Modelos lineales. 63
4.1 Introducci on. . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.2 Modelo lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2.1 Estimacion del par ametro : . . . . . . . . . . . . . . . 67
4.2.2 Intervalos de conanza para y : . . . . . . . . . . . 67
4.2.3 Valores particulares de t
p
: . . . . . . . . . . . . . . . . 68
5 Fundamentos fsicos. 71
5.1 Problema de los dos cuerpos. . . . . . . . . . . . . . . . . . . . 71
5.1.1 Solucion numerica. . . . . . . . . . . . . . . . . . . . . 72
5.2 Problema de los tres cuerpos. . . . . . . . . . . . . . . . . . . 74
5.2.1 Solucion numerica. . . . . . . . . . . . . . . . . . . . . 74
5.3 Proyectiles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.4 Caminata al azar. . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.5 Bifurcaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.6 Scattering. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.6.1 Solucion numerica. . . . . . . . . . . . . . . . . . . . . 80
5.7 Pendulo de Kapitza. . . . . . . . . . . . . . . . . . . . . . . . 82
5.8 Ondas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.9 Ondas arm onicas. . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.9.1 Periodo. . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.9.2 Longitud de onda. . . . . . . . . . . . . . . . . . . . . 85
5.9.3 Frecuencia. . . . . . . . . . . . . . . . . . . . . . . . . 85
5.9.4 Relaciones. . . . . . . . . . . . . . . . . . . . . . . . . 85
5.9.5 Velocidad de la onda. . . . . . . . . . . . . . . . . . . . 85
5.9.6 Pulsaciones. . . . . . . . . . . . . . . . . . . . . . . . . 86
5.9.7 Ondas estacionarias. . . . . . . . . . . . . . . . . . . . 86
5.9.8 Interferencia de ondas. . . . . . . . . . . . . . . . . . . 87
5.10 Atractor de Lorentz. . . . . . . . . . . . . . . . . . . . . . . . 87
5.11 Promedios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.11.1 Simulaci on. . . . . . . . . . . . . . . . . . . . . . . . . 88
5.12 Normal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.12.1 Generacion de una distribucion normal a partir de va-
riables uniformes. . . . . . . . . . . . . . . . . . . . . . 89
vi CONTENIDOS
5.13 Funciones distribucion. . . . . . . . . . . . . . . . . . . . . . . 89
5.13.1 Bidimensional . . . . . . . . . . . . . . . . . . . . . . . 89
5.13.2 Simulaci on. . . . . . . . . . . . . . . . . . . . . . . . . 90
5.14 Sistema de ecuaciones diferenciales ordinarias. . . . . . . . . . 90
6 Manual del programa. 93
6.1 Requerimientos. . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2 Principales opciones. . . . . . . . . . . . . . . . . . . . . . . . 94
6.2.1 Estadsticas. . . . . . . . . . . . . . . . . . . . . . . . . 94
6.2.2 Ventana inicial, Men u 2. . . . . . . . . . . . . . . . . . 95
6.2.3 Dos cuerpos. . . . . . . . . . . . . . . . . . . . . . . . . 96
6.2.4 Tres cuerpos. . . . . . . . . . . . . . . . . . . . . . . . 97
6.3 Proyectiles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.4 Caminata al azar. . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.5 Bifurcaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.6 Scattering. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.7 Pendulo de Kapitza. . . . . . . . . . . . . . . . . . . . . . . . 103
6.8 Ondas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.9 Atractor de Lorentz. . . . . . . . . . . . . . . . . . . . . . . . 107
6.10 Men u 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.11 Promedios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.12 Normal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.13 Funciones distribucion. . . . . . . . . . . . . . . . . . . . . . . 111
6.13.1 Colores. . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.13.2 Unidades. . . . . . . . . . . . . . . . . . . . . . . . . . 113
7 Apendice 115
7.1 A) La distribucion exponencial. . . . . . . . . . . . . . . . . . 115
7.2 B) El proceso de Poisson. Detalles. . . . . . . . . . . . . . . . 116
7.3 C) Algunos detalles matem aticos. . . . . . . . . . . . . . . . . 118
7.4 D) La distribucion binomial. . . . . . . . . . . . . . . . . . . . 120
7.4.1 El valor esperado de m: . . . . . . . . . . . . . . . . . 120
7.4.2 La varianza de m: . . . . . . . . . . . . . . . . . . . . . 121
7.4.3 Lmite para n grande . . . . . . . . . . . . . . . . . . . 122
7.4.4 Caminata al azar . . . . . . . . . . . . . . . . . . . . . 123
Introduccion.
Este libro, constituye un complemento y manual para el uso de un programa
computacional realizado en el contexto de un Proyecto de Desarrollo de la
Docencia, patrocinado por la Universidad de Santiago de Chile y realizado
durante el a~ no 2000. Hemos estructurado este libro en captulos que tienen
distintos objetivos. Por un lado se describen elementos de calculo numerico,
de metodos estadsticos y de probabilidades, que contienen los elementos
principales de los cuales se ha hecho uso en el programa computacional y de
cuya lectura se podra comprender mejor lo que est a detr as de cada una de
las rutinas del programa. De todas maneras, el programa podr a igualmente
ser usado y explicado en otros captulos sin ser necesario leer los primeros.
Estos captulos son:
Captulo 1 Elementos de calculo numerico.
Captulo 2 Elementos de probabilidades.
Captulo 3 Elementos de estadstica.
Un cuarto captulo explica los fundamentos fsicos y matematico de las prin-
cipales opciones del programa. Por ejemplo, para la simulaci on del problemas
de los tres cuerpos, se explica la fsica del problema, y as similarmente para
todos los t opicos.
Un quinto captulo, constituye el manual de uso del programa, donde se
explican las opciones disponibles al ejecutar el programa. Por ultimo, en un
apendice se muestran algunas demostraciones para quien se interese en esos
viii Introducci on.
detalles. As, en un esquema
Captulo 4 Fundamentos Fsicos.
Captulo 5 Manual del programa.
Apendice 6 Algunos detalles matematicos.
Buena parte de los resultados matem aticos explicados se establecen sin de-
mostraci on dejando como trabajo para el lector, la demostraci on de diversos
teoremas a la vez que se plantean problemas en el estudio de algunos topicos
con la esperanza de que estos apuntes sirvan de complemento a la realizaci on
de alg un curso en la Universidad.
Para hacer m as f acil el uso y difusion de este libro as como del programa
y otros materiales de referencia, se ha hecho un CD con la version de este
libro en formato PDF de Adobe que l ogicamente permitira hacer mas copias
impresas de el. La versi on del libro del CD, tiene opciones de navegaci on en
el mediante hipervnculos para facilitar su lectura, pero que no son visibles
al imprimirlos. Se autoriza su impresion siempre y cuando se mantenga el
debido respeto a la autora de estos apuntes y no se hagan actividades lucra-
tivas con ello. El uso mas inmediato del CD sera simplemente para poder
leer estos en un PC para lo cual se incluye el lector de archivos formato PDF,
Acrobat Reader de Adobe
1
que debe ser instalado en su PC de acuerdo a
las instrucciones de ese programa. El CD, se auto ejecuta y un men u desple-
gable permite navegar por las opciones, entre otras, ejecutar el programa. El
programa que hemos llamado Simulaciones.exe, puede ser ejecutado desde
el men u del CD o si hay problemas con el programa autoejecutable, debe
explorarse el CD mediante el explorador de Windows y ejecutar el programa
directamente. El programa fue completamente desarrollado mediante Delphi
version 5.0 de Borland, esto es, pascal orientado a objetos bajo Windows. Se
incluyen en el CD, en el subdirectorio \Fuentes" elementos del codigo fuente
de algunas partes del programa.
Se solicita enviar comentarios, sugerencias o correcciones al autor, Luis
Rodrguez Valencia, Departamento de Fsica Universidad de Santiago, e-mail
lhrodrig@lauca.usach.cl., o por correo a la direcci on postal, Avda. Ecuador
3493, Correo 2, Santiago.
1
\Acrobat
R
Reader Copyright c 1987-1996 Adobe Systems Incorporated. All rights
reserved. Adobe and Acrobat are trademarks of Adobe Systems Incorporated which may
be registered in certain jurisdictions."
ix
En el CD se encontrar a material suplementario de utilidad, como ser
constantes universales y tablas diversas.
x Introducci on.
Cap

tulo 1
Metodos numericos
1.1 Introduccion.
Se presentan algunas de las tecnicas comunes para realizar c alculos numericos
sin mayor rigor matem atico, con el objetivo de hacer referencias a ellas en el
resto de los captulos donde ello sea necesario, y para que el lector interesado
tenga conocimiento de la existencia de estos metodos.
1.2 Integraci on numerica.
1.2.1 El area bajo una curva.
Si se tiene una funcion y = f(x), el problema de determinar el area entre la
curva representativa de la funcion y el eje X, entre los valores x
1
y x
2
conduce
al concepto de integral. Una aproximaci on a la soluci on de este problema
consiste en aproximar el area por una suma de rect angulos como se indica
en la gura.
Si el intervalo de x
1
a x
2
lo llenamos con N rectangulos que lleguen hasta
la curva, entonces los anchos de los rectangulos ser an
d =
x
2
x
1
N
;
las abcisas de sus vertices inferiores izquierdos seran
x
i
= x
1
+ (i 1)d; i = 1; 2; : : : ; N
2 Metodos numericos
x
f(x)
x
2 1
1
2
3
N
Figura 1.1: Area bajo la curva.
o
x
i
= x
1
+ (i 1)
x
2
x
1
N
; i = 1; 2; : : : ; N
entonces el area A sera aproximadamente
A
N
X
i=1
f(x
i
)
x
2
x
1
N
:
Como puede observarse, el error que se comete debido a que los rectangulos
tienen un decit o exceso de area respecto a la curva, se har a cero si tomamos
el lmite haciendo que los anchos de los rect angulos tiendan a cero. Eso se
logra tomando el lmite N ! 1, es decir
A = lim
N!1
N
X
i=1
f(x
i
)
x
2
x
1
N
;
= lim
N!1
N
X
i=1
f(x
1
+ (i 1)
x
2
x
1
N
)
x
2
x
1
N
;
lmite que se conoce como la integral de la funcion entre x
1
y x
2
A =
Z
x
2
x
1
f(x)dx:
Metodos aproximados para su evaluaci on numerica se describen a continua-
cion.
1.2 Integraci on numerica. 3
1.2.2 Metodo del punto medio:
Z
b
a
f(x) dx M
n
= x[f(x
1
) +f(x
2
) + +f(x
n
)]
donde
x =
b a
n
y
x
i
=
1
2
(x
i1
+x
i
)
es el punto medio de [x
i1
; x
i
].
1.2.3 Metodo del Trapecio:
Z
b
a
f(x) dx T
n
=
x
2
[f(x
0
) + 2f(x
1
) + 2f(x
2
) + + 2f(x
n1
) +f(x
n
)]
donde
x = (b a)=n y x
i
= a +i x
1.2.4 Cotas de error:
Suponga que jf
00
(x)j K para a x b. Si E
T
y E
M
denotan los errores
los metodos del trapecio y del punto medio entonces
jE
T
j
K(b a)
3
12n
2
y jE
M
j
K(b a)
3
24n
2
1.2.5 Metodo de Simpson:
Z
b
a
f(x) dx S
n
=
x
3
[f(x
0
) + 4f(x
1
) + 2f(x
2
) + 4f(x
3
) + + 2f(x
n2
)
+4f(x
n1
) +f(x
n
)]
donde n es par y x = (b a)=n.
1.2.6 Cota de error para metodo de Simpson:
Suponga que

f
(4)
(x)

K para a x b. Si E
S
es el error en el metodo
de Simpson, entonces
jE
S
j
K(b a)
5
180n
4
4 Metodos numericos
0 2 4 6 8 10 12 14
0
10
20
30
40
50
60
70
funcin y=f(x)
tangente en (1)
y
2
-y
1
x
2
-x
1
2
1
Derivada
Y
X
Figura 1.2: Tangente y derivada.
1.3 La derivada.
Si se considera una funcion de una variable y = f(x) su gr aco con escalas
uniformes es una curva, genericamente como la que se ilustra en la gura.
En ella se indican dos puntos cercanos (1) y (2), se ha dibujado la tangente
a la curva en el punto (1) y la cuerda del punto (1) al punto (2).
Una medida de la tasa de crecimiento promedio de la funcion en el inter-
valo (x
1
; x
2
), puede ser denida por la razon
y
2
y
1
x
2
x
1
:
Si nos imaginamos que los dos puntos estan muy cerca, y en caso lmite x
2
se acerca a x
1
hasta confundirse con el, podemos observar que
la cuerda 1-2, se aproxima y se confunde con la tangente a la curva.
La hipotenusa del tri angulo indicado en la gura se confunde con la
tangente a la curva.
El tri angulo rect angulo se~ nalado se hace de lados cada vez menores,
cero en el caso lmite.
1.4 Aproximaciones lineales y cuadraticas. 5
Es claro que la raz on
y
2
y
1
x
2
x
1
es la tangente del angulo que hace la cuerda
con el eje x, cualquiera que sea el tama~ no de los catetos del tri angulo.
(Note que aqu tan = sin = cos )
Se deduce entonces que el lmite cuando x
1
tiende a x
2
, lo que se escribe
como
lim
x
2
!x
1
y
2
y
1
x
2
x
1
existe y es igual a la tan() del angulo que forma la tangente a la curva
en el punto (1) con el eje x. Tal lmite se llama la derivada de la funcion en
el punto x
1
y se denota por
f
0
(x
1
) = lim
x
2
!x
1
y
2
y
1
x
2
x
1
= lim
x
2
!x
1
f(x
2
) f(x
1
)
x
2
x
1
:
1.4 Aproximaciones lineales y cuadraticas.
1.4.1 Diferencial:
Definicion 1.4.1 Sea y = f(x), donde f es una funci on diferenciable. En-
tonces la diferencial dx es una variable independiente; esto es, dx puede ser
dada de cualquier valor. La diferencial dy es entonces denida en terminos
de dx por
dy = f
0
(x) dx
Los diferenciales dx y dy son ambos variables, pero dx es independiente,
mientras que dy es dependiente|depende de los valores de x y dx. Si dx es
dado, entonces dy esta determinado.
Si dx 6= 0, obtenemos
dy
dx
= f
0
(x). Esto es la derivada es la razon o
cociente de dos diferenciales
1.4.2 Aproximacion lineal:
Definicion 1.4.2 La aproximaci on lineal de f(x) cerca de a es
f(x) f(a) +f
0
(a)(x a)
6 Metodos numericos
1.4.3 Aproximaci on cuadratica:
Definicion 1.4.3 La aproximaci on cuadr atica de f(x) cerca de a es
f(x) f(a) +f
0
(a)(x a) +
f
00
(a)
2
(x a)
2
Ejemplo 1.4.1 Sea
f (x) =
3x
2
+ 5
2x 4
y a = 3. La aproximaci on lineal de f (x) cerca de 3 es
f(a) +f
0
(a)(x a) = 37 7x:
y la aproximacion cuadraticas es
f(a) +f
0
(a)(x a) +
f
00
(a)
2
(x a)
2
=
227
2
58x +
17
2
x
2
:
.
Las funciones y = (3x
2
+5)=(2x4), y = 377x, y = 227=258x+17x
2
=2
estan representadas en los gr acos
-100
-50
0
50
100
150
200
y
-10 10 20 30
x
-20
0
20
40
60
80
y
1 2 3 4 5
x
1.5 Ajuste de curvas por polinomios. 7
-10
0
10
20
30
40
y
2 2.5 3 3.5 4 4.5
x
12
13
14
15
16
17
18
19
20
y
2.8 2.9 3 3.1 3.2
x
1.5 Ajuste de curvas por polinomios.
Un graco de puntos podra mostrar evidencia de la existencia de una relaci on
polinomial. Para polinomios de grados dos y tres eso signica la existencia
de ecuaciones de la forma
y = A +Bx +Cx
2
, o
y = A +Bx +Cx
2
+Dx
3
Lo datos siguientes establecen claramente una relacion no lineal. El
metodo de los mnimos cuadrados puede usarse para ajustar un polinomio
8 Metodos numericos
0
2
4
6
8
-3 -2 -1 1 2 3
(3; 7); (2; 4); (1; 2); (0; 0); (1; 1:5); (2; 5); (3; 10)
El gr aco siguiente muestra el ajuste mediante una par abola (polinomio
de grado 2, en verde) y un polinomio de grado tres (curva roja).
0
2
4
6
8
10
y
-3 -2 -1 1 2 3
x
Para grado 2, resuelva el sistema de ecuaciones lineales para A; B; C:
An + B
X
X +C
X
X
2
=
X
Y
A
X
X +B
X
X
2
+C
X
X
3
=
X
XY
A
X
X
2
+B
X
X
3
+C
X
X
4
=
X
X
2
Y
1.6 Determinaci on de races de ecuaciones. 9
Para grado 3, resuelva el sistema de ecuaciones lineales para A; B; C; D:
An + B
X
X +C
X
X
2
+D
X
X
3
=
X
Y
A
X
X +B
X
X
2
+C
X
X
3
+D
X
X
4
=
X
XY
A
X
X
2
+B
X
X
3
+C
X
X
4
+D
X
X
5
=
X
X
2
Y
A
X
X
3
+B
X
X
4
+C
X
X
5
+D
X
X
6
=
X
X
3
Y
1.6 Determinaci on de races de ecuaciones.
Muchos problemas en ciencia e ingeniera conducen a un problema de de-
terminar las races de una ecuacion de la forma f(x) = 0 donde f es una
funcion diferenciable. Para una ecuaci on cuadr atica ax
2
+bx +c = 0 es bien
conocido que
x =
(

b+
p
b
2
4ac
2a
;

2c
b+
p
b
2
4ac
:
:
Para ecuaciones de tercer y cuarto orden hay tambien f ormulas, pero
que son complicadas. Si f es un polinomio de grado 5 o superior no existe
tal f ormula. Asimismo no hay f ormulas que nos permitan encontrar races
exactas de ecuaciones trascendentales tales como cos x = x. Metodos que
permitan encontrar aproximaciones para las races de ecuaciones se han de-
sarrollado. Uno de tales metodos se denomina metodo de Newton-Raphson.
1.6.1 Metodo de Newton-Raphson.
El metodo de Newton se basa en la observaci on de que la lnea tangente es
una buena aproximaci on local a una funci on. Sea (x
0
; f(x
0
)) un punto de la
curva. La lnea tangente en ese punto ser a
y f(x
0
) = f
0
(x
0
)(x x
0
):
Esta lnea cruza el eje-x donde y = 0. El valor de x sera
x = x
0

f(x
0
)
f
0
(x
0
)
:
10 Metodos numericos
En general, dada una aproximaci on x
n
a una raz de la funcion f(x), la lnea
tangente cruza el eje x donde
x
n+1
= x
n

f(x
n
)
f
0
(x
n
)
:
Dado x
0
, el metodo de Newton produce una lista x
1
, x
2
, : : :, x
n
de aproxi-
maciones al cero de f.
En los gr acos que siguen, f(x) = x x
3
, x
0
= 0:44, x
1
0:41,
x
2
0:27, y x
3
0:048.
-0.4
-0.2
0
0.2
0.4
-1 -0.8 -0.6 -0.4 -0.2 0.2 0.4 0.6 0.8 1
x
x x
3
1.6.2 Metodo iterativo para determinar una raz de
f(x) = x.
Este metodo tiene exito en algunos casos como explicaremos. Considere el
gr aco de la funci on y = f(x) y el gr aco de la funci on y = x. El punto donde
se cortan determina la raz. El metodo consiste en partir de una adivinanza
inicial x
1
, y calcular sucesivos valores x
2
= f(x
1
), x
3
= f(x
2
); : : :. En general
x
n+1
= f(x
n
): (1.1)
En el caso de la gura para cos x = x, se observa que esos valores se aproxi-
man cada vez m as a la intersecci on. Sea un valor inicial x
1
= 1; cos 1 = 0:
540 3;entonces:
cos 0: 540 3 = 0: 857 6;
cos 0: 857 6 = 0: 654 3;
1.6 Determinaci on de races de ecuaciones. 11
0,0 0,5 1,0 1,5 2,0
0,0
0,2
0,4
0,6
0,8
1,0
x
3
=f(x
2
)
f(x
2
)
x
2
=f(x
1
)
f(x
1
)
x
1
y=x
x
y
y=cos(x)
Figura 1.3: Iterar.
valores que oscilan, pero que a la larga se aproximan al mismo valor
0:739 09; aunque mucho mas lentamente que en el metodo de Newton. La
convergencia dependera del angulo en que se intersectan la curva y = f(x) e
y = x: Si ese angulo es mayor de =2 no hay convergencia.
1.6.3 Metodo de la secante.
La idea de este metodo es muy simple. Si se conocen do puntos tales que
en ellos las funci on f(x) tiene diferente signo, por ejemplo f(x
1
) < 0 y
f(x
2
) > 0, entonces (para funciones continuas) en alg un punto intermedio la
funcion debe anularse. La recta que va desde el punto (1) al punto (2) corta el
eje x m as cerca de la raz buscada, como se ilustra en la gura siguiente:Como
la recta pasa por los puntos (1) y (2) su ecuaci on es (verifquelo)
y = f(x
1
) +
f(x
2
) f(x
1
)
x
2
x
1
(x x
1
)
y el punto donde ella corta el eje x (la aproximaci on) satisface
f(x
1
) +
f(x
2
) f(x
1
)
x
2
x
1
(x x
1
) = 0;
12 Metodos numericos
0,0 0,5 1,0 1,5 2,0
-2
-1
0
1
2
(2)
(1)
aproximacin
raiz
X
2
X
1
X
Y
Figura 1.4: Metodo de la secante.
de donde
x = x
1
f(x
1
)
x
2
x
1
f(x
2
) f(x
1
)
x =
x
1
f(x
2
) x
2
f(x
1
)
f(x
2
) f(x
1
)
:
Este proceso debe ser repetido hasta alcanzar la precisi on deseada, eligiendo
entre nuevos valores iniciales, (x
1
; x) o (x; x
2
) seg un en cual pareja hay cambio
de signo de la funci on.
1.7 Serie de Taylor y Maclaurin.
Si f tiene una representaci on en serie en torno de a, o sea si
f (x) =
1
X
n=0
c
n
(x a)
n
jx aj < R
entonces los coecientes son
c
n
=
f
(n)
(a)
n!
1.7 Serie de Taylor y Maclaurin. 13
Substituyendo c
n
en la serie para f, se tiene la serie de Taylor:
f (x) =
1
X
n=0
f
(n)
(a)
n!
(x a)
n
= f (a)+
f0 (a)
1!
(x a)+
f00 (a)
2!
(x a)
2
+
f000 (a)
3!
(x a)
3
+:::
En el caso especial donde a = 0, se tiene la serie de Maclaurin:
f (x) =
1
X
n=0
f
(n)
(0)
n!
x
n
= f (0) +
f0 (0)
1!
x +
f00 (0)
2!
x
2
+
f000 (0)
3!
x
3
+:::
Funciones que pueden ser representadas por series de potencia en torno
a a son llamadas analticas en a. Funciones analticas son innitamente
diferenciables en a; eso es que tiene derivadas de todo orden en a. Sin
embargo, no todas las funciones innitamente diferenciable son analticas.
Las sumas parciales de Taylor son
T
n
(x) =
n
X
i=0
f
(i)
(a)
i!
(x a)
i
= f (a)+
f0 (a)
1!
(x a)+
f00 (a)
2!
(x a)
2
+:::+
f
(n)
(a)
n!
(x a)
n
T
n
es un polinomio de grado n llamado el polinomio de Taylor de grado n de
f en a.
I Teorema 1.1
Si f (x) = T
n
(x) +R
n
(x), y
lim
n!1
R
n
(x) = 0
para jx aj < R, entonces f es igual a su serie de Taylor series en el intervalo
jx aj < R; esto es , f es analtica en a.
I Teorema 1.2 (F ormula de Taylor)
Si f tiene n+1 derivadas en el intervalo I que contiene el n umero a, entonces
para x en I hay un n umero z estrictamente entre x y a tal que el resto puede
ser expresado como
R
n
(x) =
f
(n+1)
(z)
(n + 1)!
(x a)
n+1
Para el caso especial n = 0, se tiene que
f (b) = f (a) +f0 (c) (b a)
este es el Teorema del valor medio.
14 Metodos numericos
1.7.1 Serie importantes de Maclaurin.
Serie de Maclaurin Intervalo de Convergencia
1
1x
=
1
P
n=0
x
n
= 1 +x +x
2
+x
3
+::: (1; 1)
e
x
=
1
P
n=0
x
n
n!
= 1 +
x
1!
+
x
2
2!
+
x
3
3!
+::: (1; 1)
sinx =
1
P
n=0
(1)
n
x
2n+1
(2n+1)!
= x
x
3
3!
+
x
5
5!

x
7
7!
+::: (1; 1)
cos x =
1
P
n=0
(1)
n
x
2n
(2n)!
= 1
x
2
2!
+
x
4
4!

x
6
6!
+::: (1; 1)
tan
1
x =
1
P
n=0
(1)
n
x
2n+1
2n+1
= x
x
3
3
+
x
5
5

x
7
7
+::: [1; 1]
1.8 Ecuaciones diferenciales ordinarias.
El problema clasico de la ecuacion diferencial ordinaria de primer orden es
encontrar una funci on y(x) que satisfaga
dy
dx
= f(x; y);
dado el valor inicial de la funcion y(x
0
) = y
0
. Una variedad de metodos
aproximados se han desarrollado, entre los cuales describiremos algunos.
1.8.1 Metodo de Euler.
Se reemplaza la derivada por
dy(x)
dx
=
y(x +h) y(x)
h
;
siendo h alg un n umero peque~ no. As la ecuaci on diferencial se transforma en
una ecuacion de diferencias
y(x +h) = y(x) +hf(x; y):
Si llamamos
x
k+1
= x
k
+h;
tenemos que
y(x
k+1
) = y(x
k
) +hf(x
k
; y
k
):
1.8 Ecuaciones diferenciales ordinarias. 15
1.8.2 Metodo de Runge-Kutta.
Si h es un n umero peque~ no y se denen
k
1
= hf(x; y); (1.2)
k
2
= hf(x +h=2; y +k
1
=2);
k
3
= hf(x +h=2; y +k
2
=2);
k
4
= hf(x +h; y +k
3
);
entonces, con un error de cuarto orden O(h
4
)
y(x +h) = y(x) + (k
1
+ 2k
2
+ 2k
3
+k
4
)=6:
1.8.3 Metodos predictor corrector.
Los metodos predictor corrector hacen uso de una formula para una primera
aproximaci on de y
k+1
; seguida de una formula correctora que hace mejora-
mientos sucesivos. As por ejemplo una primera aproximaci on es
y
0
k+1
= y
k
+hy
0
k
;
que puede ser mejorada con
y
1
k+1
= y
k
+
1
2
(y
0
k+1
+y
0
k
)
= y
k
+
1
2
(f(x
k+1
; y
0
k+1
) +f(x
k
; y
k
)):
1.8.4 Metodo de Milne:
Este metodo requiere cuatro valores previos y la pareja predictora correctora
es
y
k+1
= y
k3
+ (4h=3)(2y
0
k2
y
0
k1
+ 2y
0
k
);
y
k+1
= y
k1
+ (h=3)(y
0
k+1
+ 4y
0
k
+ y
0
k1
):
1.8.5 Metodo de Adams.
y
k+1
= y
k3
+ (h=24)(55y
0
k
59y
0
k1
+ 37y
0
k2
9y
0
k3
);
y
k+1
= y
k1
+ (h=24)(9y
0
k+1
+ 19y
0
k
5y
0
k1
+y
0
k2
);
que al igual que el metodo de Milne requiere de cuatro valores previos.
16 Metodos numericos
1.8.6 Ecuaciones de orden mayor.
La ecuaci on lineal
d
2
y
dx
2
= f(x; y;
dy
dx
);
se reduce a un sistema de ecuaciones de primer orden. Para ello dena
p = dy=dx y entonces
dy
dx
= p;
dp
dx
= f(x; y; p);
es un sistema de ecuaciones diferenciales de primer orden, que es resuelto
similarmente adaptando los metodos anteriores.
1.9 Derivaci on numerica.
Si tenemos una funci on conocida para valores discretos igualmente espaciados
de las abcisas x
i
con x
i+1
x
i
= h, entonces existen algoritmos que permiten
estimar la derivada de distinto orden, utilizando determinado n umero de
puntos. Las siguientes formulas (Handbook of Mathematical functions de
Abramowitz) indican la forma de obtener la derivada con tres o cuatro puntos
correspondientes a abscisas igualmente espaciadas en una cantidad peque~ na
h:
Dos puntos. Tenemos las tres posibilidades
f
0
(x) =
8
<
:
(f(x +h) f(x))=h;
(f(x) f(x h))=h;
(f(x +h) f(x h))=2h:
Tres puntos, p = 1; 0; 1:
f
0
(x
0
+ph) =
1
h

(p
1
2
)f
1
2pf
0
+ (p +
1
2
)f
1

:
Cuatro puntos, p = 1; 0; 1; 2
f
0
(x
0
+ph) =
1
h
(
3p
3
6p + 2
6
f
1
+
3p
2
4p 1
2
f
0

3p
2
2p 2
2
f
1
+
3p
2
1
6
f
2
):
Cap

tulo 2
Elementos de probabilidades
2.1 Introduccion
Es una experiencia cotidiana que si un experimento se realiza un n umero
de veces bajo las \mismas controlables" condiciones, los resultados son en
general diferentes, aun cuando las diferencias pueden ser peque~ nas. Cada
experimento se realiza tratando de mantener las mismas condiciones. En el
mundo macroscopico en realidad no estamos en condiciones de controlar to-
das las variables que afectan al fen omeno por lo tanto uno puede pensar que
los diversos resultados se deben precisamente a la falta de control de algunas
de las variables que inuyen en los resultados. Por ejemplo el ruido de los
dispositivos electr onicos, uctuaciones incontrolables de una fuente de volta-
je, variaciones imperceptibles de la temperatura, etcetera. Sin embargo, con
el desarrollo de la Mec anica Cuantica (>que sera eso?), se ha aceptado que
esto es un aspecto intrnseco de nuestro Universo, es decir que a un cuando
las condiciones se mantengan absolutamente iguales, pueden haber diversos
resultados de un mismo experimento, no adjudicables a variables no controla-
das o no conocidas. Estos hechos fueron motivo de mucha controversia en los
inicios del desarrollo de la Mecanica Cu antica, siendo celebre la Conferencia
de Solvay en Bruselas en 1927, ver foto, donde Albert Einstein se enfrent o al
resto del Mundo de los fsicos, tratando de salvar el determinismo cl asico, de
acuerdo al cual, bajo mismas condiciones, se repiten los mismos resultados y
que cualquier discrepancia debera ser debida a causas no consideradas. Sin
18 Elementos de probabilidades
Figura 2.1: Conferencia de Solvay de 1927
embargo Einstein nalmente acept o que los hechos indicaban fuera de duda,
la validez de este nuevo tipo de incertidumbre en el determinismo cl asico.
2.2 Tomelo con calma.
En este captulo, hay demasiada matem atica que usted probablemente no
conoce a un, pero la conocer a. De modo que no se preocupe demasiado por las
demostraciones y trate de quedarse de alguna manera con el concepto, pues
aqu no hay evaluaciones. De todas maneras se presentan algunos detalles
matem aticos complicados con la esperanza que este libro en el futuro.
2.3 Cosas concretas.
Para que esta discusi on no le parezca demasiado abstracta, ejemplos sim-
ples concretos se encuentran en los juegos de azar, por lo cual analizaremos
algunos, antes de introducir deniciones formales mas abstractas.
2.3 Cosas concretas. 19
2.3.1 Lanzar un dado.
Como usted debe saber al lanzar un dado hay seis resultados posibles, que
salga cualquiera de los n umeros del 1 al 6. Si usted idea un metodo para
predecir el resultado que va a ocurrir, debera felicitarlo. Repita este ex-
perimento, digamos 100 veces y anote los resultados que se obtienen. Una
manera de resumir la informaci on obtenida es contando cuantas veces salio
cada resultado, y mejor calcular la fraccion del total en que ocurrio cada
resultado. Estos resultados \experimentales" difcilmente coincidir an con los
de otra realizacion de 100 lanzamientos. Aqu no queda m as remedio y es-
pecular que para un n umero muy grande de lanzamientos todos los resultados
deberan ocurrir en la misma proporci on. Esta conjetura podr a ser sostenida
hasta que existan serias discrepancias con ella. (En tal caso lo que uno podra
pensar es que el dado est a cargado).
2.3.2 Lanzar un dardo a un blanco.
Estrictamente hablando, aqu no se trata realmente de un juego de azar, pero
ocurre algo parecido. Los distintos resultados, puntos de cada del dardo se
distribuir an en forma continua cerca del blanco, pero de una forma que no
somos capaces de predecir. (La excepcion se dara si existiera un lanzador
perfecto)
2.3.3 Lanzar dos dados.
A diferencia del lanzamiento de uno, el conjunto de resultados posibles es
ahora mayor, en efecto ellos son 36 resultados distintos posibles. Sin embargo
uno puede estar interesado no en los resultados distintos, sino por ejemplo en
los resultados que sumen siete. Ahora los que suman siete son (1; 6); (2; 5);
(3; 4); (4; 3); (5; 2); (6; 1), o sea 6 casos de un total de 36. Seguramente usted
apostara a que el resultado siguiente no va a sumar 7. Usted seguramente
concordara en que las chances son 6 de 36, o bien
6
36
= 0: 166 7, n umero muy
peque~ no que lo desalentar a en la apuesta.
Estas ideas se formalizan estructurando la teora de las probabilidades.
20 Elementos de probabilidades
2.4 Probabilidad
2.4.1 Poblacion o Universo
El conjunto continuo o discreto de todos los distintos resultados x
i
de un ex-
perimento la denominaremos la poblaci on o el Universo asociado al determi-
nado experimento (Usualmente llamado espacio muestral, pero no queremos
confundir con muestras o grupos de datos, por ello usaremos la terminologa
explicada). Este conjunto puede ser nito para el caso de resultados dis-
cretos, pero necesariamente innito cuando los resultados son un continuo
de valores. En este libro preferiremos el empleo del termino resultado del
experimento, por tratarse de un libro sobre Fsica, aun cuando puede y even-
tualmente se ocupar a el termino mas amplio de Evento, a lo que ocurre tras
la realizacion de alg un experimento, de cualquier tipo.
2.4.2 Eventos simples
Los elementos del Universo o Poblaci on se denominan eventos simples. (por
ejemplo los resultados del lanzamiento de un dado)
2.4.3 Eventos compuestos
Cualquier subconjunto del Universo o Poblaci on se denomina un evento com-
puesto. Por ejemplo, ver gura, los subconjuntos A, B, A[B, A\B, etcetera.
(por ejemplo los casos en que la suma de los dos dados es 7)
2.4.4 Probabilidad, caso discreto
Eventos simples
Aunque es posible hacer un tratamiento axiomatico del concepto de probabi-
lidad, seguiremos un proceso mas cercano a la experimentaci on. Supongamos
que el Universo es de tama~ no nito M. Si al repetir un experimento N veces
el evento o resultado x
i
ocurre n
i
veces, la frecuencia relativa de ocurrencia
de dicho resultado se dene como
f
i
=
n
i
N
;
y si tal expresion tiene un lmite cuando N ! 1, entonces denimos la
probabilidad.
2.4 Probabilidad 21
Definicion 2.4.1 Denimos la probabilidad del evento simple x
i
por
P
i
= lim
N!1
n
i
N
:
De la denici on se desprende que
M
X
i=1
P
i
= 1:
Este tipo de denicion de probabilidad es a veces llamada \a posteriori" o
\emprica", a diferencia de otra denici on que esta basada en alg un tipo de
razonamiento. Por ejemplo si no se encuentran causas para suponer que
un determinado evento debera ocurrir con distinta frecuencia que otro, uno
podra suponer en consecuencia que todas las probabilidades son iguales y por
lo tanto
P
i
=
1
M
:
Este tipo de denicion es a veces denominada \probabilidad a priori". De-
bemos remarcar que las teoras de la fsica que utilicen el concepto de proba-
bilidad, utilizan probabilidades a priori, estando su denici on comprometida
seg un sean la comprobaci on experimental de las predicciones de la respectiva
teora.
Eventos compuestos
Recordemos que los elementos de conjunto Universo corresponden a los dis-
tintos posibles resultados de un experimento. Estos son los que hemos llama-
dos eventos simples. Las probabilidades de estos eventos las hemos llamado
P
i
y tienen la evidente propiedad
M
X
i=1
P
i
= 1:
Cualquier subconjunto A del Universo es denominado un evento com-
puesto. Su probabilidad se dene por
P
A
=
X
x
i
2A
P
i
:
22 Elementos de probabilidades
C
B
A
A B
!
Figura 2.2:
Evento union A[ B y evento interseccion A\ B
La uni on o interseccion de dos subconjuntos del universo, es tambien un
subconjunto del universo o sea es un evento compuesto. Sus probabilidades
pueden relacionarse de acuerdo a
P
A[B
= P
A
+P
B
P
A\B
;
pues, de acuerdo a la gura (??), si los subconjuntos A y B tienen intersec-
cion vaca, al sumar las probabilidades de A y de B obtenemos correctamente
la probabilidad de la union.
Sin embargo si la intersecci on no es vaca, al realizar lo anterior estamos
contando dos veces los elementos de la interseccion. Restando en ese caso
los elementos de la interseccion una vez, se obtiene el resultado correcto. A
veces, la probabilidad de la union puede leerse como : \la probabilidad de
que el simple este en A o en B" y similarmente para el caso de la interseccion,
\la probabilidad de que el simple este en A y en B"
Eventos independientes, probabilidad condicional
Queremos denir dos conceptos que juegan un rol muy importante en teora
de probabilidades. El concepto de probabilidad condicional toma en cuenta
el efecto (si lo hay) de que el saber que ocurri o un determinado evento A,
afecta o no la probabilidad del siguiente evento B:
Definicion 2.4.2 Denimos la probabilidad condicional P(B j A) como la
probabilidad de que ocurra el evento B si sabemos que el evento A ocurrio.
2.4 Probabilidad 23
Definicion 2.4.3 Dos eventos A y B se denominan independientes, si la
ocurrencia de uno no afecta la probabilidad del otro, es decir si P(B j A) =
P(B) y P(A j B) = P(A):
La forma en que la ocurrencia de un evento puede afectar la ocurrencia
de otro, puede deberse a diversas causas, dependiendo del experimento de
que se trate.
Ejemplo 2.4.1 Por ejemplo se tiene un conjunto de bolitas numeradas del
1 al 5 en una caja. El experimento puede ser sacar una bolita al azar, mirar
el resultado y reponerla en la caja o no reponerla en la caja. Analice esta
situaci on.
Solucion. Para el primer caso obviamente el primer evento no afecta al
siguiente. O sea si el experimento es con reposicion, los eventos son indepen-
dientes y todos tienen probabilidad P =
1
5
. De modo que por ejemplo
P(1 j 1) =
1
5
; P(2 j 1) =
1
5
; ; P(5 j 1) =
1
5
:
Si el experimento es sin reposicion, claramente la ocurrencia de una evento
afecta los siguientes, de modo que tendremos por ejemplo
P(1 j 1) = 0; P(2 j 1) =
1
4
; ; P(3 j 1) =
1
4
:
>Como podemos establecer alguna regla? Claramente tenemos un problema
de hacer bien las cuentas. Para eventos simples hay simplemente dos posi-
bilidades. Para el experimento sin reposici on P(A \ B) puede ser cero o no
dependiendo de que no hayan o hayan eventos simples comunes en A y en
B. Obviamente el Universo para el experimento en cuesti on es
N
con reposicion
0
B
B
B
B
@
1; 1 1; 2 1; 3 1; 4 1; 5
2; 1 2; 2 2; 3 2; 4 2; 5
3; 1 3; 2 3; 3 3; 4 3; 5
4; 1 4; 2 4; 3 4; 4 4; 5
5; 1 5; 2 5; 3 5; 4 5; 5
1
C
C
C
C
A
P(1 \ 2) =
1
25
P(1 j 2) =
1
5
P(2) =
1
5
notando que P(1 j 2) =
P(1\2)
P(2)
24 Elementos de probabilidades
sin reposici on
0
B
B
B
B
@
1; 2 1; 3 1; 4 1; 5
2; 1 2; 3 2; 4 2; 5
3; 1 3; 2 3; 4 3; 5
4; 1 4; 2 4; 3 4; 5
5; 1 5; 2 5; 3 5; 4
1
C
C
C
C
A
P(1 \ 2) =
1
20
P(1 j 2) =
1
4
P(2) =
1
5
notando que P(1 j 2) =
P(1\2)
P(2)
Debe remarcarse la diferencia entre P(1 \ 2) que es la probabilidad de
la ocurrencia del 1 seguido por el 2 respecto al total de resultados posibles,
mientras que P(1 j 2) est a restringido al universo remarcado, donde el
primer evento fue un 2.
Aunque no sera demostrado nada aqu, los resultados del ejemplo pueden
ser enunciados como una relacion entre estas probabilidades de la siguiente
forma, que realmente constituye la denicion de probabilidad condicional:
Definicion 2.4.4
P(B j A) =
P(A\ B)
P(B)
Como una consecuencia de la denici on de eventos independientes, sigue
otro teorema:
I Teorema 2.1
Si dos eventos A y B son independientes, entonces
P(A\ B) = P(A)P(B):
2.5 Sacar cuentas.
Para el c alculo de probabilidades normalmente deben sacarse cuentas del
total de eventos o resultados, y de los casos favorables. Para ello son de
utilidad los siguientes conceptos.
2.5 Sacar cuentas. 25
2.5.1 Concepto basico de multiplicaci on.
Si un procedimiento A puede hacerse de n
A
maneras diferentes y si procedi-
miento B puede hacerse de n
B
maneras diferentes, para cada forma en que se
hizo el primero, entonces el procedimiento A seguido por el B puede hacerse
de n
A
n
B
maneras diferentes.
Ejemplo 2.5.1 Si se elige un comite sorteando un hombre de un grupo de
seis y una mujer de un grupo de tres, el comite puede formarse de 63 = 18
maneras diferentes.
2.5.2 Permutaciones.
Si se tiene un grupo de n objetos diferentes, el n umero de distintos ordenes
en que puede formarse el grupo de n objetos es el n umero de permutaciones
P(n) = 1 2 3 n = n!
El smbolo n! (llamado ene-factorial), admite una famosa aproximaci on para
n grande, llamada aproximaci on de Stirling
n!
p
2nn
n
e
n
Ejemplo 2.5.2 Por ejemplo con los n umeros 1; 2; 3 hay 6 diferentes or-
denes, a saber (1; 2; 3); (1; 3; 2); (2; 1; 3); (2; 3; 1); (3; 1; 2); (3; 2; 1): En efecto
3! = 6:
2.5.3 Combinaciones.
Si se tiene un grupo de n objetos diferentes y se extrae de el un grupo de
m n objetos, sin importar el orden, el n umero de formas de hacerlo es
llamado el n umero de combinaciones y est a dado por

n
m

=
n!
m!(n m)!
:
Este n umero es tambien llamado coeciente binomial dada su relaci on con
el teorema del binomio el cual establece que, el binomio elevado a n tiene el
desarrollo:
(a +b)
n
=

n
0

a
n
+

n
1

a
n1
b +

n
2

a
n2
b
2
+ +

n
n 1

ab
n1
+

n
n

b
n
26 Elementos de probabilidades
Ejemplo 2.5.3 Por ejemplo, de un grupo de 10 personas, el n umero de
formas en que se puede constituir un comite de 4 personas es

10
4

=
10!
6!4!
=
7 8 9 10
1 2 3 4
= 210:
Ejemplo 2.5.4 Se lanza N veces una moneda al aire. Si la ocurrencia de
caras o sellos es igualmente probable, determine la probabilidad de que ocu-
rran n sellos.
Solucion. El n umero de casos favorables de que ocurran n sellos es

n
m

:
Por otro lado, el total de casos est a dado por (0 o 1 o 2 n sellos)
m=n
X
m=0

n
m

;
ahora bien, esta suma se puede deducir del teorema del binomio para el caso
en que a = 1, b = 1 obteniendose
m=n
X
m=0

n
m

= 2
n
;
por lo tanto la probabilidad buscada es
P =
1
2
n

n
m

:
Para tener una idea del comportamiento de esta probabilidad, realice un
gr aco para n = 10 con los valores de la
2.6 Variables aleatorias 27
0 1 2 3 4 5 6 7 8 9 10
0,00
0,05
0,10
0,15
0,20
0,25
p
r
o
b
a
b
i
l
i
d
a
d
numero m
distribucin binomial con p=q=0,5
n=10
Figura 2.3: Distribuci on binomial.
tabla
m P
0
1
2
10

10
0

= 9: 766 10
4
1
1
2
10

10
1

= 9: 766 10
3
2
1
2
10

10
2

= 4: 395 10
2
3
1
2
10

10
3

= : 117 2
4
1
2
10

10
4

= : 205 1
5
1
2
10

10
5

= : 246 1
6
1
2
10

10
6

= : 205 1
7
1
2
10

10
7

= : 117 2
8
1
2
10

10
8

= 4: 395 10
2
9
1
2
10

10
9

= 9: 766 10
3
10
1
2
10

10
10

= 9: 766 10
4
N
cuyo gr aco se muestra a continuaci on
2.6 Variables aleatorias
Nos limitaremos a analizar experimentos donde los resultados son valores
numerico x
i
, por ahora discretos, con una probabilidad conocida P
i
: Podemos
28 Elementos de probabilidades
decir por denici on que el resultado del experimento es una variable aleatoria
x con distribucion de probabilidad P(x) denida por
P(x) = P
i
si x = x
i
P(x) = 0 en otro caso.
Ejemplos de variables aleatorias discretas pueden ser
Ejemplo 2.6.1 x el n umero de caras que pueden ocurrir al lanzar n veces
una moneda. De acuerdo a lo explicado
P(x) =
1
2
n

n
m

si x = m( n)
P(x) = 0 en otro caso.
Ejemplo 2.6.2 x el resultado obtenido al arrojar un dado. Aqu
P(x) =
1
6
si x 2 (1; 2; 3; 4; 5; 6)
P(x) = 0 en otro caso.
2.6.1 Distribuci on binomial.
Si un experimento tiene dos resultados posibles A y B, con probabilidad p
y q = 1 p cada uno, y el experimento se repite n veces, la probabilidad
de que ocurran m resultados A, en cualquier orden es la famosa distribucion
binomial.
P(m) =

n
m

p
m
q
nm
; (2.1)
muchas de sus propiedades seran dadas en el apendice (B).
Por sus aplicaciones a la teora de los errores preferiremos profundizar en
los casos en que la variable aleatoria es continua.
2.6 Variables aleatorias 29
2.6.2 Caso continuo
Cuando los posibles resultados experimentales son un continuo de valores,
el universos obviamente es de tama~ no innito. Por ello deben hacerse algu-
nas modicaciones formales, pero no de fondo, a lo explicado para el caso
discreto. As por ejemplo es posible denir (a priori o a posteriori) la pro-
babilidad de que el resultado este dentro de alg un subconjunto del universo,
preferiblemente en un elemento innitesimo del universo. Para un caso unidi-
mensional., el universo puede ser un intervalo de los n umeros reales entre x
1
y x
2
: Obviamente la denici on de probabilidad debe ser tal que haya certeza
de que resulte alg un valor del Universo, es decir
P([x
1
; x
2
]) = 1; (2.2)
donde la notaci on expresa la probabilidad de que el resultado del experimento
sea alguno de los valores posibles x 2 [x
1
; x
2
]. Para un intervalo diferencial
dx en torno de x; la probabilidad correspondiente sera denida mediante
P([x; x +dx]) = f(x)dx;
siendo f(x) la llamada funcion de distribucion de la variable aleatoria x.
Aqu, por alg un medio ser a preciso postular o determinar f(x).
Funciones de distribucion de variable aleatoria
Aqu profundizaremos algo de lo recien explicado. Sea x una variable aleato-
ria resultado de alg un experimento con resultados en un continuo, el intervalo
[x
1
; x
2
] : La probabilidad de que la variable este en un entorno dx del valor
x, se dene por
P([x; x +dx]) = f(x)dx;
siendo f(x) la funci on distribucion de la variable aleatoria x: Por la propiedad
2.2, las funciones distribucion est an normalizadas, es decir
Z
x
2
x
1
f(x)dx = 1:
30 Elementos de probabilidades
Algunos ejemplos
Ejemplo 2.6.3 Distribuci on uniforme. La funci on distribuci on uniforme,
corresponde a elegir un n umero real al azar dentro de un intervalo y esta
dada por
f(x) =
8
>
>
<
>
>
:
0 si x <
1

si < x <
0 si x >
donde < son dos n umeros reales

Ejemplo 2.6.4 Un generador simple de n umeros (seudo) aleatorios. Con-
sidere la secuencia generada de acuerdo a
x
n+1
= 4x
n
(1 x
n
);
donde dado un n umero (semilla) x
1
entre 0 y 1, se generan todos los siguien-
tes en el mismo intervalo. Construya numericamente la funci on distribu-
ci on de tal secuencia de n umeros. Para ello, divida el intervalo (0; 1) en un
n umero de partes, por ejemplo 100, y cada vez que el n umero resulte en un
intervalo i (1 i 100) agregue 1 a un contador n
i
inicialmente en cero.
Graque enseguida las razones n
i
=N, siendo N el n umero total de cuentas.
La siguiente graca se obtuvo para un n umero de 100 intervalos y 20.000
generados. Un generador simple de n umeros (seudo) aleatorios. Considere
la secuencia generada de acuerdo a
x
n+1
= 4x
n
(1 x
n
);
2.6 Variables aleatorias 31
20 40 60 80 100
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
n
/
N
intervalo
Distribucin logstica
intervalos = 100
generados = 20.000
Figura 2.4: Aleatorios.
donde dado un n umero (semilla) x
1
entre 0 y 1, se generan todos los si-
guientes en el mismo intervalo. Construya numericamente la funcion dis-
tribuci on de tal secuencia de n umeros. Para ello, divida el intervalo (0; 1)
en un n umero de partes, por ejemplo 100, y cada vez que el n umero resulte
en un intervalo i (1 i 100) agregue 1 a un contador n
i
inicialmente
en cero. Graque enseguida las razones n
i
=N, siendo N el n umero total de
cuentas. La siguiente graca se obtuvo para un n umero de 100 intervalos y
20.000 generados.Esta graca muestra claramente que la distribuci on no es
uniforme.
Ejemplo 2.6.5 La funcion distribuci on normal, dependiente de dos parametros
(el valor esperado) y ( la desviaci on estandar) es denida mediante
f (x; ; ) =
1

p
2
e

(x)
2
2
2
;
que ha veces se abrevia N(; ):
Ejemplo 2.6.6 La funci on distribuci on normal est andar, es un caso par-
ticular donde = 0 y = 1, es decir
f(x) =
1
p
2
e

x
2
2
32 Elementos de probabilidades
o abreviado N(0; 1), cuyo graco caracterstico - llamado \campana de Gauss"
se ilustra en la gura siguiente:
1
p
2
e

x
2
2
0
0.1
0.2
0.3
-4 -2 2 4
x
Campana de Gauss.
Ejemplo 2.6.7 Si la rapidez de fallas de alg un dispositivo es constante a lo
largo del tiempo, entonces los tiempos de fallas tienen una distribucion de
probabilidad exponencial con valor esperado
f(t; ) =
1

e
t=
para u 0
donde e es la base de los logartmos naturales. La desviaci on estandar para
la distribuci on exponencial es = . (ver graco)
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
0.18
0.2
5 10 15 20 25
u
= 5; Exponencial
La deduccion de tal funci on distribuci on se muestra para quien se interese
en el apendice (A).
2.6 Variables aleatorias 33
Figura 2.5: Distribucion de Poisson.
Ejemplo 2.6.8 El proceso de Poisson. La distribucion de Poisson juega un
papel importante para un gran n umero de fenomenos observables. Considere-
mos una fuente radioactiva que emite partculas y denamos una variable
aleatoria X(t
1
; t
2
) como el n umero de partcula emitidas durante un intervalo
de tiempo [t
1
; t
2
] : Denotaremos tal funci on de distribuci on por
P
n
(t
1
; t
2
) = P [X(t
1
; t
2
) = n] :
(que se lee como \la probabilidad de que en el intervalo de tiempo entre t
1
y
t
2
el n umero de partculas emitidas sea n"). En el apendice de (B) se indican
los detalles matem aticos que conducen a
P
n
(t) =
1
n!
(t)
n
e
t
o
P(n; t) =
1
n!
(t)
n
e
t
que gracaremos para = 0:5 , n = 0; 1; 2; 3:
Las deniciones de valor esperado, varianza y desviacion est andar se dan
a continuaci on.
34 Elementos de probabilidades
2.6.3 Valor esperado, varianza y desviaci on estandar
Si x es una variable aleatoria continua en el rango [x
1
; x
2
] con funcion distri-
bucion de probabilidad f(x), se denen
Definicion 2.6.1 El valor esperado de x, E(x) tambien denotado por , se
dene por
E(x) = =
Z
x
2
x
1
xf(x)dx:
Definicion 2.6.2 La varianza de x, V ar(x) tambien denotada por
2
se
dene por
V ar(x) =
2
=
Z
x
2
x
1
(x )
2
f(x)dx:
Definicion 2.6.3 La desviaci on est andar de x se dene como =
p
V ar(x).
Puede vericarse facilmente que para la funci on distribucion normal, efec-
tivamente se cumple que
=
1

p
2
Z
1
1
ze

(z)
2
2
2
dz;
y que

2
=
1

p
2
Z
1
1
z
2
e

(z)
2
2
2
dz:
Para la distribuci on uniforme puede calcularse
=
1

Z

xdx =
1
2
( +);
y

2
=
1

Z

x
2
dx =
1
3
(
2
+ +
2
):
Distribuciones de probabilidad acumuladas
Para el caso de variables aleatorias continuas, la probabilidad de un valor
exacto es evidentemente cero, pues hay innitos casos posibles. Se utilizan
en cambio acumulaciones de probabilidad, por ejemplo
2.6 Variables aleatorias 35
Caso 1 La distribuci on de probabilidad normal acumulada
F(x; ; ) =
1

p
2
Z
x
1
e

(z)
2
2
2
dz
que indica la probabilidad de que la variable aleatoria z con distribuci on nor-
mal N(; ) tenga valores menores o iguales a x.
Caso 2 La distribuci on de probabilidad normal acumulada
F(x; ; ) =
1

p
2
Z
x
x
e

(z)
2
2
2
dz
que indica la probabilidad de que la variable aleatoria z con distribuci on nor-
mal N(; ) tenga valores entre x y x.
Algunas propiedades
Si x es una variable aleatoria con funcion distribuci on de probabilidad f(x),
y si a, b y c son constantes, los siguientes desarrollos seran de utilidad

E(ax +b) =
Z
x
2
x
1
(ax +b)f(x)dx = aE(x) +b:

V ar(cx) =
Z
x
2
x
1
(cx E(cx))
2
f(x)dx
=
Z
x
2
x
1
(cx c))
2
f(x)dx = c
2
V ar(x):
Similarmente, si x es una variable aleatoria con funci on distribuci on de
probabilidad f(x), y si a, b son constantes, la funcion de distribuci on g(z) de
z = ax +b, puede calcularse de
g(z)dz = f(x)dx;
de modo que
g(z) =
1
a
f(
z b
a
): (2.3)
Alg un cuidado adicional se requiere si z no es una funci on mon otona de
x, como se explica al nal de este captulo.
36 Elementos de probabilidades
2.6.4 Funciones de variables aleatorias
Un problema de mucho interes es el de determinar la funci on distribuci on
de una combinacion de variables aleatorias, cuando se conocen las distribu-
ciones de cada variable y si ellas son independientes en el sentido explicado
anteriormente. Esto tiene muchas aplicaciones como veremos. Por ejemplo si
las variables x
i
(i = 1; 2; N) son independientes con distribucion uniforme
en el intervalo

2
;

2

, >cual es la distribuci on de la variable aleatoria


x =
1
p
N
N
X
i=1
x
i
en el lmite para N muy grande? Este es un caso de mucho interes y en
el apendice (C) se explican algunos desarrollos matematicos para quien se
interese, pero nos interesa principalmente el resultado nal. Como all se
demuestra, la funcion distribuci on resulta ser la distribuci on normal
f(x) =
1
p
2
e

x
2
2
2
;
o sea, tenemos un teorema que es lo que importa:
I Teorema 2.2
Si las variables x
i
son aleatorias e independientes con distribucion uniforme
con valor esperado = 0 y desviacion est andar ; entonces la variable
aleatoria
x =
1
p
N
N
X
i=1
x
i
tiene, para N ! 1 distribuci on normal
f(x) =
1
p
2
e

x
2
2
2
:
De acuerdo a las propiedades 2.3, si las variables aleatorias x
i
tuvieran
valor esperado 6= 0, entonces las variables aleatorias z
i
= x
i
tiene valor
esperado 0; de modo que la variable z tiene la distribucion anterior.
2.6 Variables aleatorias 37
2.6.5 Funcion distribucion del promedio
Por su importancia, considere ahora variables x
i
aleatorias e independien-
tes con distribucion uniforme con valor esperado , desviacion est andar ;
entonces la variable aleatoria (el promedio)
x =
1
N
X
x
i
tiene una distribucion que nos proponemos calcular, en el lmite de N muy
grande. Para ello considere
x =
1
p
N
1
p
N
X
(x
i
) + =
1
p
N
x +
donde ahora x tiene la distribucion normal con valor esperado cero. Por las
propiedades se~ nalada
F( x)d x = f(x)dx =
p
Nf(
p
N( x )d x
o sea
F( x) =
p
N
p
2
e

N( x)
2
2
2
;
que puede ser escrita como
F( x) =
1
p
2
x
e

( x)
2
2
2
x
;
donde
x
=

p
N
y que puede ser escrito entonces como un importante teore-
ma:
I Teorema 2.3
Si las variables x
i
son aleatorias e independientes cada una con distribucion
uniforme con valor esperado , desviacion est andar ; entonces la variable
aleatoria (el promedio)
x =
1
N
X
x
i
(2.4)
en el lmite de N grandes, tiene distribucion normal N(;
x
)
F( x) =
1
p
2
x
e

( x)
2
2
2
x
38 Elementos de probabilidades
con valor esperado E( x) = , y desviacion est andar

x
=

p
N
:
Como veremos, este teorema es fundamental para el tratamiento de erro-
res cuando se supone que ello son aleatorios. Por las propiedades explicadas,
para utilizar la distribucion normal est andar N(0; 1);es preferible utilizar la
variable estandarizada Z que se dene a continuacion, pues ella tiene desvia-
cion estandar unidad y valor esperado cero.
Z =
x
=
p
N
;
pues podemos usar la correspondiente tabla de valores centrales o inferiores
a un valor
z F (z) =
1
p
2
R
z
1
e
t
2
=2
dt: F (z) =
1
p
2
R
z
z
e
t
2
=2
dt:
1 0: 841 34 0: 682 69
2 0: 977 25 0: 954 5
3 0: 998 65 0: 997 3
4 0: 999 97 0: 999 94
los valores numericos, areas bajo la curva de Gauss, son las probabilidades
de que la variable estandarizada tenga valores menores que z, o entre z y
z respectivamente. De acuerdo a la gura la probabilidad de que la variable
z tenga valores entre 1 y 1 es 0:8413: En este otro caso la probabilidad de
que la variable z tenga valores entre 1 y 1 es 0:6826:
Ejemplo 2.6.9 Se han hecho 100 lecturas x
i
de una variable aleatoria con
distribucion uniforme, resultados de un experimento, y ha resultado un valor
promedio x = 12:8, siendo la desviaci on estandar de cada resultado el valor
= 0:5. Estime las probabilidades de que el valor esperado del promedio este
en determinados rangos en torno al valor x = 12:8.
Solucion. Primero que nada algunas aclaraciones. El promedio de los
100 valores es lo que se denomina el promedio muestral. Lo que se desea
es el valor esperado del promedio considerado como una variable aleatoria,
es decir . Dicho valor es naturalmente imposible de conocer con exactitud,
pues el Universo para este experimento es de tama~ no innito. Ademas, se
2.6 Variables aleatorias 39
Figura 2.6: Area menor que z:
Figura 2.7: Area entre 1 y 1.
40 Elementos de probabilidades
ha proporcionado como informaci on la desviaci on est andar de cada medida,
valor que tampoco podramos en la pr actica conocer por las mismas razones.
Mas adelante, en el captulo sobre estadstica, explicaremos como se puede
estimar alg un valor para examinando muestras nitas, como es el caso aqu.
Aclarado esto, la solucion basada en que la variable Z tiene distribucion
normal est andar (aproximadamente para muestras grandes), se tiene por
ejemplo que la probabilidad de que Z este en el intervalo [1; 1] es 0:68269,
es decir con esa probabilidad podemos asegurar que
1 <
x
=
p
N
< 1;
o bien
x =
p
N < < x +=
p
N;
o numericamente
12:8 0:05 < < 12:8 + 0:05
resultado que suele escribirse como
= 12:8 0:05
con una probabilidad de un 68:3%. Tambien se utiliza el termino de intervalo
de conanza del 68:3% al intervalo [12: 75; 12: 85]. Debe observarse que hay
dos factores que compiten. Si se desea aumentar el nivel de conanza (la
probabilidad), ello causa un ensanchamiento del intervalo de conanza. Ello
puede ser compensado aumentando el n umero N de medidas, pues ello tiende
a disminuir el ancho del intervalo de conanza como 1=
p
N.
N
Una parte de los resultados anteriores, El resultado de que la desviaci on
estandar del promedio es =
p
N; puede ser obtenido directamente, usando
propiedades del valor esperado. En efecto si
x =
1
N
X
x
i
;
entonces
E( x) =
1
N
X
E(x
i
) =
1
N
X
= ;
2.6 Variables aleatorias 41
y

2
x
= E(

1
N
X
x
i

2
);
aqu hay que cuidar sobre la independencia de las variables, pues al desarro-
llar

1
N
X
x
i

2
;
resulta
1
N
2
XX
x
i
x
j

2
N
2
X
x
i
+
2
;
donde debemos separar la suma doble en los terminos cuadr aticos pues invo-
lucran variables dependientes, de los otros de la siguiente forma
1
N
2
(
X
i
x
2
i
+
X
i6=j
x
i
x
j
)
2
N
X
i
x
i
+
2
;
por lo tanto

2
x
=
1
N
2
(
X
E(x
2
i
) +
X
i6=j
E(x
i
)E(x
j
))
2
N
X
E(x
i
) +
2
;
que se reduce a
1
N
2
(NE(x
2
) + (N
2
N)
2
) 2
2
+
2
;
o bien nalmente a

2
x
=
1
N

E(x
2
)
2

=

2
N
:
M as en general, puede demostrarse el teorema m as fuerte, llamado teo-
rema del lmite central, que colocamos aqu sin demostracion.
I Teorema 2.4 (Central del lmite)
Sean x
i
una sucesion de variables aleatorias independientes con funciones dis-
tribuciones arbitrarias con valores nitos para sus valores esperados E(x
i
) =

i
y varianzas V ar(x
i
) =
2
i
, entonces la variable
Z
n
=
P
n
i=1
(x
i

i
)
p
P
n
i=1

2
i
;
tiene distribucion normal N(0; 1) en el lmite n ! 1:
42 Elementos de probabilidades
2.6.6 Muestras peque~ nas
Recuerde que si N es grande, la variable Z indicada,
Z =
x
=
p
N
;
tiene distribucion N(0; 1). Sin embargo dado que la desviacion est andar de
la distribucion es desconocida, se suele estimarla mediante = s
n1
, es decir
usando la desviacion est andar insesgada de la muestra, siendo
s
2
n1
=
1
n 1
n
X
i=1
(x
i
x)
2
:
Sin embargo, el estadgrafo
t =
x
s
n1
=
p
n
;
considerado como una variable aleatoria debe tener una funci on distribuci on
distinta a la normal, pues ahora no m as se puede considerar a s
n1
una
constante, sino que es tambien una variable aleatoria. Fue el estadstico
ingles W.S.Gosset quien descubrio la funci on distribuci on de la variable t,
denominada distribucion h
k
(t) denominada distribuci on t de Student con k
grados de libertad. (Su trabajo fue publicado con el seud onimo de \Student")
h
k
(t) =
(
k+1
2
)
(
k
2
)
p
k
(1 +
t
2
k
)
(k+1)=2
; 1 < t < 1:
El termino grados de libertad, corresponde al n umero de variables alea-
torias independientes presentes en el estadgrafo considerado. Para el caso
de s
n1
estan involucradas las n variables aleatorias x
i
x, pero ellas no son
todas independientes, pues hay una relacion entre ellas
X
(x
i
x) = 0;
de modo que para ese caso hay n 1 grados de libertad, por lo tanto la
distribuci on de
t =
x
s
n1
=
p
n
;
2.6 Variables aleatorias 43
es
h
n1
(t) =
(
n
2
)
(
n1
2
)
p
(n 1)
(1 +
t
2
n 1
)
n=2
; 1 < t < 1: (2.5)
De aqu puede obtenerse como lmite para n ! 1
lim
n!1
h
n1
(t) =
1
p
2
e

t
2
2
;
la distribucion N(0; 1): Su graco para n = 5; 10; 15, y su lmite se indica a
continuaci on
0
0.1
0.2
0.3
-4 -2 2 4
t
Distribucion T-Student.
2.6.7 Mas sobre funciones distribuci on (f
d
)
Este tema requiere tambien de mucha matem aticas, por lo tanto usted puede
omitirlo.
Unidimensional.
Cuando una variable x aleatoria continua tiene una f
d
conocida, interesa
determinar la f
d
de funciones de x: Por ejemplo si la variable x tiene distri-
buci on uniforme, cuales son las funciones distribuci on de x
2
, de
p
x, etcetera.
Para esto se presenta un teorema.
I Teorema 2.5
Sea x una variable aleatoria continua con f
d
f(x); donde por supuesto debe
ser f(x) no negativa. Suponga adem as que y = h(x) es una funcion estric-
tamente mon otona (creciente o decreciente) y derivable, entonces la f
d
de la
44 Elementos de probabilidades
variable y esta dada por
g(y) = f(x)

dx
dy

= f(h
1
(y))

1
h
0
(h
1
(y))

:
Aqu h
0
denota la derivada de h y h
1
denota la funci on inversa de h que por
las condiciones consideradas, existe.
Demostracion. Esto sigue de g(y) jdyj = f(x) jdxj, debiendose expresar
x en funcion de y mediante x = h
1
(y). La funci on inversa existe por cuanto
la funcion h(x) es mon otona.
N
Si la funcion h(x) es continua, derivable, pero no mon otona ( su derivada
se anula en el rango), entonces debemos tener m as cuidado. Por ejemplo
suponga una variable x con distribuci on uniforme en el intervalo [1; 1] la f
d
de y = x
2
(no mon otona) debe evaluarse de otra forma, as podemos escribir
g(y) jdyj =
X
y=x
2
f(x) jdxj ;
pues ahora hay dos valores de x correspondientes a un dado y. Ellos son
x =
p
y. As resulta
g(y) jdyj = f(+
p
y) jd
p
yj +f(
p
y) jd
p
yj ;
o bien
g(y) = (f(+
p
y) +f(
p
y))
1
2
p
y
;
pero f(x) =
1
2
en [1; 1], por lo cual resulta
g(y) =
1
2
p
y
, para 0 < y < 1
g(y) = 0 caso contrario.
2.6 Variables aleatorias 45
Bidimensional
Cuando se tienen dos variables aleatorias continuas x, y con f
d
conocidas,
f(x), y g(y), supuestas independientes, la f
d
de una funci on z = F(x; y);
h(z) puede evaluarse como sigue
h(z) jdzj =
Z
z=F(x;y)
f(x)g(y) jdxdyj ; (2.6)
o sea la integral es sobre el area entre las dos curvas F(x; y) = z, y F(x; y) =
z + dz. Como veremos en un ejemplo pr actico, deberemos reemplazar las
variable (x; y) por otro conjunto (z; v) con v convenientemente elegida. En
el captulo sobre errores, se veran otras aplicaciones de esta relacion.
Generaci on de una distribucion normal a partir de variables uni-
formes.
Ejemplo 2.6.10 Ejemplo, sean x; y continuas con distribuci on uniforme en
el intervalo [0; 1] : Determine la f
d
de la variable z =
p
2 ln xcos 2y:
Solucion. Usaremos otra variable auxiliar v =
p
2 ln xsin 2y para
transformar la integral a variables z y v: De aqu puede obtenerse
2 ln x = z
2
+v
2
; x = e

1
2
(z
2
+v
2
)
;
tan 2y =
v
z
; y =
1
2
arctan
v
z
;
y el jacobiano de la transformacion implica
jdxdyj = jdzdvj

@x
@z
@x
@v
@y
@z
@y
@v

=
1
2
e

1
2
z
2

1
2
v
2
jdzdvj ;
resulta entonces
h(z) =
Z
1
1
f(e

1
2
(z
2
+v
2
)
)g(
1
2
arctan
v
z
)
1
2
e

1
2
z
2

1
2
v
2
dv;
pero f = g = 1 de modo que nalmente se obtiene
h(z) =
1
p
2
e

1
2
z
2
(2.7)
(Adaptado de Numerical Recipes in Pascal)
46 Elementos de probabilidades
N
Nota 2.1 Esto tiene una evidente importancia para efectos de calculos numericos.
En la mayor parte de los programas de computaci on (C, Pascal, Basic,
etcetera) estan desarrolladas rutinas para generar variables con distribuci on
uniforme en alg un rango predeterrminado. Utilizando el resultado anterior
podemos entonces generar una variable z con distribucion normal est andar.
2.7 Generaci on de n umeros aleatorios.
Puede parecer perverso (Numerical Recipes in Pascal, The Art of Scientic
Computing) que la maquina m as precisa y determinista ideada por el ser
humano, el computador, pueda producir n umeros al azar. Todo programa
ideado debera producir un resultado completamente determinado o predeci-
ble, por lo tanto no al azar. Sin embargo los llamados seudo generadores de
n umeros al azar, donde los n umeros que salen, nalmente cierran un ciclo,
generalmente muy largo, tienen muchas de las propiedades de los verdaderos
n umeros al azar, vea Knuth, Donald E. 1973, Sorting and Searching, vol. 3
of the Art of Computer Programming. (Addison - Wesley)
>Que es un verdadero n umero al azar? Aqu hay mucho de losofa, pero
seg un se acepta hoy da, los fen omenos fsicos son intrnsecamente probabi-
listicos, de modo que ellos pueden servir de base para generar verdaderos
n umeros al azar.
Como se ha explicado anteriormente es suciente disponer de n umeros
aleatorio con distribuci on uniforme en alg un intervalo, pues a partir de ellos
se pueden generar n umeros aleatorios con otras distribuciones. La mayor
parte de los programas computacionales incluyen como parte del sistema
una rutina para generar n umeros random uniformes, casi siempre basados en
una relaci on de recurrencia de la forma
I
j+1
= aI
j
+c ( mod m),
donde m se llama el modulo, a el multiplicador y c el incremento. Esto gene-
rar a una secuencia de enteros que eventualmente se repetira con un periodo
que no es mayor que m. Si los enteros m, a y c son adecuadamente escojidos,
entonces el periodo sera del tama~ no m aximo m. En algunos computadores
el periodo es 32767, cuesti on que puede ser suciente en algunos casos, pero
absolutamente insuciente en otros, como por ejemplo si se realiza una rutina
2.8 Ejercicios. 47
de Monte Carlo donde deben visitarse al azar, digamos 10
6
sitios. En el libro
citado (Numerical Recipes in Pascal, The Art of Scientic Computing), se
indican varias formas de mejorar las rutinas proporcionadas por el sistema.
2.8 Ejercicios.
Ejercicio 2.8.1 Se lanzan tres monedas. Determine la probabilidad de ob-
tener
a) tres caras.
b) 2 caras y un sello.
c) 3 sellos.
c) al menos 2 caras.
Ejercicio 2.8.2 En un lanzamiento de dos dados, determine la probabilidad
de
a) sumen 7.
b) obtener dos n umeros iguales.
c) dos n umeros iguales o que sumen 8.
Ejercicio 2.8.3 En una caminata al azar, dando pasos hacia la izquierda
o hacia la derecha con la misma probabilidad, si los pasos son de un metro,
determine la probabilidad de que en 10 pasos, el avance sea de 8 metros hacia
la derecha.
Ejercicio 2.8.4 Respecto a la situacion del ejercicio anterior, determine la
posici on m as probable despues de 10 pasos.
Ejercicio 2.8.5 Una bolsa contiene 6 bolitas azules, 4 bolitas rojas y 2 bo-
litas verdes. Determine la probabilidad de al extraer sin reemplazo
a) tres de tres sean azules.
b) de cuatro, ninguna sea roja.
48 Elementos de probabilidades
c) de tres, todas sean verdes.
Ejercicio 2.8.6 En un estudio para determinar la agudeza visual de una
persona se le presentan cuatro matices de diferente brillantes. Determine la
probabilidad de que ellos sean ordenados correctamente por casualidad.
Ejercicio 2.8.7 En una prueba de alternativas, cada pregunta tiene 5 al-
ternativas, siendo s olo una de ellas correcta. Cual es la probabilidad de que
en 10 preguntas contestadas al azar, todas las respuestas sean correctas.
Ejercicio 2.8.8 Respecto a la pregunta anterior, si el estudiante tiene 5
respuestas buenas y 5 respuestas malas, cual debera ser su calicaci on en la
escala de notas del 1 al 7.
Ejercicio 2.8.9 Si las variables aleatorias x
i
son independientes con valor
esperado y desviacion estandar , pruebe que
E(< x >) =
Ejercicio 2.8.10 Si las variables aleatorias x
i
son independientes con valor
esperado
i
y desviaci on estandar
i
, pruebe que la variable aleatoria
z =
X
a
i
x
i
tiene valor esperado
E(z) =
X
a
i

i
y varianza

2
z
=
X
a
2
i

2
i
Ejercicio 2.8.11 Si las variables aleatorias x
i
son independientes con valor
esperado y desviacion estandar , pruebe que la variable aleatoria < x >
tiene desviaci on estandar (caso particular de lo anterior)

<x>
=

p
n
2.8 Ejercicios. 49
Solucion.
E( < x >
2
) =
1
n
2
E(
X
x
i
X
x
j
) =
=
1
n
2
E(
X
x
2
i
+
X
i6=j
x
i
x
j
)
=
1
n
E(x
2
i
) +
1
n
2
X
i6=j
E(x
i
x
j
)
=
1
n
E(x
2
) +
1
n
2
(n
2
n)
2
;
pero
E(x
2
)
2
=
2
;
por lo tanto
E( < z >
2
) =
1
n
(
2
+
2
) +
1
n
2
(n
2
n)
2
=

2
n
+
2
;
adem as
E(< x >) = E(
1
n
X
x
i
) =
entonces

2
<x>
=

2
n
+
2

2
=

2
n
:
N
Ejercicio 2.8.12 Si las variables aleatorias undependientes x, y tienen dis-
tribuci on de probabilidad uniforme en e intervalo [0; 10] detemine la funci on
distribuci on de
a) z = x +y:
b) w = xy:
c) u = x
2
:
50 Elementos de probabilidades
Cap

tulo 3
Estadstica de datos
3.1 Introduccion
Aqu nos preocuparemos de describir datos, provenientes o no de alg un ex-
perimento. Tendremos entonces un conjunto nito de datos, para el caso que
nos interesa n umeros reales, fx
i
g con i = 1; 2; ; n. Este conjunto es llama-
do una muestra en el caso de que dichos datos sean un subconjunto obtenido
por alg un proceso selectivo de alg un conjunto mas grande, usualmente la
poblaci on o Universo de alg un proceso de medicion, conjunto normalmente
de tama~ no innito, o bien simplemente los \datos" si ellos no provienen de
un conjunto mas grande. Sin embargo dicha conexi on existente o no entre
muestra y poblaci on, no es necesaria aqu. Se tiene simplemente una muestra
y por lo tanto toda la informaci on relativa a la muestra est a contenida en
la muestra misma. De hecho no hay m as informaci on que ese conjunto ni-
to. Sin embargo en muchos casos las muestras son grandes o muy grandes y
ello requiere de tecnicas para resumir la informaci on, o hacer la informaci on
m as evidente sin necesidad de recorrer y examinar todos los valores. Para
ese efecto se ha desarrollado lo que se denomina \la estadstica descriptiva",
que intenta describir las propiedades de las muestras mediante unos pocos
par ametros, denominados \estadgrafos de la muestra". Podemos anticipar
que estos estadgrafos tendr an en algunos casos otra utilidad m as all a de
describir la muestra. Ello jugaran, junto a elementos de teora de proba-
bilidad, un rol importante en el hacer predicciones estadsticas con alguna
determinada probabilidad de acierto.
52 Estadstica de datos
3.2 Estadgrafos muestrales
En este libro, el tema central son resultados reales de alg un experimento, por
ello consideraremos muestras de n umeros reales, siendo que en rigor bastara
considerar n umeros racionales por las incertezas propias de los procesos de
medicion. Haremos entonces algunas deniciones.
Definicion 3.2.1 El promedio muestral que se denota como x o < x > se
dene mediante
x =< x >=
1
n
n
X
i=1
x
i
: (3.1)
Definicion 3.2.2 La varianza muestral que se denota como s
2
n
se dene
mediante
s
2
n
=
1
n
n
X
i=1
(x
i
x)
2
: (3.2)
Definicion 3.2.3 La desviaci on est andar de la muestra se dene mediante
s
n
=
v
u
u
t
1
n
n
X
i=1
(x
i
x)
2
Definicion 3.2.4 La varianza muestral (insesgada) s
2
n1
se dene mediante
s
2
n1
=
1
n 1
n
X
i=1
(x
i
x)
2
: (3.3)
La diferencia entre ambas es peque~ na si n es grande, pero como se explica mas
adelante, s
n1
es un mejor estimador de la desviacion estandar poblacional.
Definicion 3.2.5 La varianza muestral s
2
n
de la muestra se dene como
s
2
n
=
1
n
n
X
i=1
(x
i
x)
2
3.3 Distribuciones de frecuencia 53
La diferencia entre s
n
y s
n1
es mnima si n es grande, pero hay de
todos modos una diferencia conceptual que ser a explicada m as adelante. Una
propiedad util que sigue de la denicion (3.2) mediante el desarrollo siguiente
s
2
n
=
1
n
n
X
i=1
(x
2
i
2x
i
< x > + < x >
2
);
o sea
s
2
n
=< x
2
> 2 < x >
2
+ < x >
2
;
o nalmente
s
2
n
=< x
2
> < x >
2
:
El signicado del promedio es conocido por todos. La desviaci on est andar,
de acuerdo a (3.2), signica la raz del promedios de las diferencias cuadraticas
con el promedio. Se parece, pero no es igual al promedio de las distancias
al promedio. Claramente es imposible tratar de describir una muestra de n
elementos, con apenas un par de valores, pero algo es algo. Muchas veces los
detalles no son necesarios. En esa descripcion ayuda algo m as, examinar la
distribucion de frecuencias de la muestra, y su respectivo graco.
3.3 Distribuciones de frecuencia
Si se tiene una enorme muestra, mejor que examinar ese enorme listado
de valores, no se pierde demasiada informacion si los datos se agrupan en
intervalos o clases de igual ancho, indicando junto al respectivo intervalo, el
n umero de datos que tienen valor dentro de el, cuestion llamada la frecuencia
de la respectiva clase f
i
. Como valor representativo de la clase x
i
se suele
usar el promedio de los lmites de clases, es decir el valor central de la clase,
aunque ese valor podra no existir en la muestra. Por ejemplo, una tabla de
frecuencia tendra un aspecto como el siguiente.
54 Estadstica de datos
2
6
6
6
6
6
6
6
6
6
6
4
clase x
i
f
i
5 10 7:5 5
10 15 12:5 10
15 20 17:5 40
20 25 22:5 35
25 30 27:5 20
30 35 32:5 3
n = 113
3
7
7
7
7
7
7
7
7
7
7
5
Si esta es la informacion disponible, de aqu se pueden calcular apro-
ximadamente los estadgrafos muestrales con algunas modicaciones en las
f ormulas. As
< x >=
1
n
X
clases
f
i
x
i
;
s
2
n1
=
1
n 1
X
clases
f
i
(x
i
< x >)
2
;
adem as de representar la \distribuci on" de datos de un sinn umero de formas
posibles. Por ejemplo diagrama de barras, lnea poligonal, diagrama de torta,
ajuste polinomial, etcetera. El m as utilizado es un diagrama de barras, como
se ilustra en la gura siguiente, para el ejemplo dado.
f(x) =
8
>
>
>
>
>
>
<
>
>
>
>
>
>
:
5 if 5 < x < 10
10 if 10 < x < 15
40 if 15 < x < 20
35 if 20 < x < 25
20 if 25 < x < 30
3 if 30 < x < 35
Estas curvas, son a veces denominadas distribuciones experimentales de
probabilidad, pero ese concepto no sera usado aqu.
3.4 Metodo de mnimos cuadrados
Supongamos que se tenga una muestra de tama~ no n, de pares de valores
(x
i
; y
i
). Un diagrama de dichos puntos en un graco X Y , puede mostrar
(o no) alguna tendencia a agrupaci on cerca de alguna curva continua. Su-
pongamos que es aparente que los puntos se aproximan a cierta recta. Un
3.4 Metodo de mnimos cuadrados 55
5
10
15
20
25
30
35
40
5 10 15 20 25 30 35 x
Figura 3.1: histograma de frecuencias.
problema que resuelve tambien la estadstica descriptiva es el encontrar la
ecuacion de la recta tal que la suma de los cuadrados de las diferencias en
y que se producen es mnima. Esto est a relacionado pero no es una tecnica
de regresion lineal. Aqu no estamos hablando de modelos ni nada parecido.
As concretamente el problema es :
Se tienen n datos (x
i
; y
i
): (puntos en un plano)
Se busca una recta, es decir una funci on lineal y(x) = a +bx
Bajo la condici on que SSE =
P
(y(x
i
) y
i
)
2
sea un mnimo.
Utilizando la expresion lineal supuesta para y(x) debemos minimizar con
respecto a a y b, la expresion
SSE =
X
(a +bx
i
y
i
)
2
:
Si se desarrolla el cuadrado se tiene
SSE = b
2
X
x
2
i
+ 2ab
X
x
i
2b
X
x
i
y
i
2a
X
y
i
+
X
y
2
i
+a
2
:
Es decir se tiene una funcion cuadr atica en las variables a y b: Mediante
tecnicas del calculo, detalles que usted puede omitir si tiene fe, resulta en-
tonces que los coecientes a y b deben ser tales que
@
@a
X
(a +bx
i
y
i
)
2
=
X
2(a +bx
i
y
i
)x
i
= 0;
56 Estadstica de datos
@
@b
X
(a +bx
i
y
i
)
2
=
X
2(a +bx
i
y
i
) = 0:
Estas ecuaciones pueden ser escritas en terminos de promedios, de la
siguiente forma
b < x
2
> +b < x > < yx >= 0;
b < x > +a < y >= 0;
de donde podemos despejar
b =
< yx > < x >< y >
< x
2
> < x >
2
;
por lo tanto
y(x) =< y > +
< yx > < x >< y >
< x
2
> < x >
2
(x < x >): (3.4)
Como explicamos podemos llamar
s
x
=
p
< x
2
> < x >
2
;
s
y
=
p
< y
2
> < y
2
>;
a las desviaciones estandar muestrales (estadgrafos de la muestra) de x,
y respectivamente. Para escribir el resultado (3.4) en otras formas, conside-
remos lo que sigue.
3.4.1 Variaciones
Medidas de las desviaciones de los datos y
i
respecto a su promedio, de los
datos y
i
respecto a la recta y de la recta respecto al promedio (ver gura 3.2),
se denominan variacion total, variacion no explicada y variaci on explicada.
En forma m as precisa se denen (con diversas notaciones)
Variaci on total S
yy
= SST:
SST = S
yy
=
X
(y
i
< y >)
2
:
3.4 Metodo de mnimos cuadrados 57
Total No explicada Explicada
<y> <y> <y>
Figura 3.2: Variaciones.
Variaci on no explicada SSE:
SSE =
X
(y
i
y(x
i
))
2
;
que fue la cantidad minimizada y
Variaci on explicada SSR
SSR =
X
(y(x
i
) < y >)
2
:
I Teorema 3.1
Entre las variaciones denidas se tiene que
X
(y
i
< y >)
2
=
X
(y
i
y(x
i
))
2
+
X
(y(x
i
) < y >)
2
;
o
SST = SSR +SSE:
Demostraci on. Desarrollando los cuadrados se tiene que
SST =
X
(y
i
< y >)
2
= n(< y
2
> < y >
2
);
58 Estadstica de datos
adem as podemos desarrollar
SSE =
X
(y
i
y(x
i
))
2
=
X
(y
i
< y > a(x
i
< x >))
2
=
X
(y
i
< y >)
2
+na
2
(< x
2
> < x >
2
)
2an( < xy > < x >< y >);
pero
a = (< yx > < x >< y >)=(< x
2
> < x >
2
)
por lo que se puede escribir
SSE =
X
(y
i
< y >)
2
na
2
(< x
2
> < x >
2
);
por otro lado desarrollemos
SSR =
X
(y(x
i
) < y >)
2
= na
2
(< x
2
> < x >
2
);
que prueban el teorema.
N
3.4.2 Coeciente de correlacion lineal de Pearson
Se dene el coeciente de correlacion lineal de Pearson r, al coeciente
r =
r
variaci on explicada
variaci on total
;
Debe notarse que r = 1, si las desviaciones de los datos respecto al promedio
(la variaci on total) son exclusivamente la desviaci on de los valores de la recta
respecto al promedio, es decir todos los puntos caen sobre la recta. La elecci on
del signo se hace de acuerdo al signo del coeciente a; es decir el signo de la
pendiente. Si reemplazamos en la denicion se obtiene
r =
s
b
2
(< x
2
> < x >
2
)
(< y
2
> < y >
2
)
;
3.4 Metodo de mnimos cuadrados 59
o bien
r = b
s
x
s
y
;
que puede nalmente escribirse
r =
< yx > < x >< y >
s
x
s
y
;
El signicado del coeciente de correlacion lineal r, es entonces 1, cuan-
do la variacion no explicada es cero, es decir cuando la cantidad minimizada
es cero, que corresponde a un ajuste perfecto. El signo de r corresponde al
signo de la pendiente de la recta de mnimos cuadrados pues
b = r
s
y
s
x
:
Tambien se dice que el ajuste es completamente imperfecto si r = 0; caso
que suele describirse diciendo que no hay correlaci on lineal..
Finalmente nos quedamos con esta ultima version de la ecuacion de la
recta ajustada por mnimos cuadrados a los datos:
y(x) =< y > +r
s
y
s
x
(x < x >):
Definicion 3.4.1 Aunque esta materia no tiene que ver con errores en las
mediciones (vea captulo siguiente), se dene el error estandar del ajuste,
como
s
est
=
r
P
(y
i
y(x
i
))
2
n
=
p
SSE;
el cual es evidentemente cero si el ajuste es perfecto.
Alternativamente podemos usar alguna expresion deducida m as arriba
SSE =
X
(y
i
< y >)
2
na
2
(< x
2
> < x >
2
) =
= n(< y
2
> < y >
2
) na
2
(< x
2
> < x >
2
)
= ns
2
y
nr
2
(
s
y
s
x
)
2
s
2
x
= ns
2
y
(1 r
2
)
por lo cual
s
est
=
p
SSE = s
y
p
1 r
2
:
60 Estadstica de datos
Note adem as que este error tambien se reduce a cero si s
y
= 0, puesto que
en este caso todos los datos y
i
son iguales.
3.4.3 Resumen
Finalmente, al margen de las demostraciones, interesan los resultados, que
pueden escribirse como:
estadgrafos de una muestra x
i
; i : 1; : : : ; n:
promedio muestral
< x >= x =
1
n
X
x
i
;
desviaciones estandar muestrales
s
n
=
r
1
n
X
(x
i
< x >)
2
=
p
< x
2
> < x >
2
;
s
n1
=
r
1
n 1
X
(x
i
< x >)
2
=
r
n
n 1
p
< x
2
> < x >
2
;
varianzas muestrales
s
2
n
=
1
n
X
(x
i
< x >)
2
= < x
2
> < x >
2
;
s
2
n1
=
1
n 1
X
(x
i
< x >)
2
=
n
n 1
(< x
2
> < x >
2
):
3.4 Metodo de mnimos cuadrados 61
Para n grande, las diferencias entre los estadgrafos de dispersi on de la mues-
tra s
n
y s
n1
son mnimas. (O entre s
2
n
y s
2
n1
) Sin embargo hay una diferen-
cia conceptual entre ellos. Si se trata de establecer la dispersion de los datos
respecto al promedio, cualquiera de ellos la dene de una manera. Sin em-
bargo, y esto ser a establecido m as adelante, si se trata de estimar los valores
de la varianza (
2
) del Universo del cual la muestra proviene, es un mejor
estimador s
2
n1
.
Recta de ajuste de mnimos cuadrados
Forma 1:
y(x) =< y > +r
s
y
s
x
(x < x >):
Forma 2:
y(x) = a +bx:
Coeciente de correlacion lineal de Pearson
r ==
< yx > < x >< y >
s
x
s
y
:
Desviaciones estandar
s
x
=
p
< x
2
> < x >
2
;
s
y
=
p
< y
2
> < y >
2
:
Variaci on total
SST =
X
(y
i
< y >)
2
= ns
2
y
:
Variaci on no explicada
SSE =
X
(y
i
y(x
i
))
2
= ns
2
y
(1 r
2
):
62 Estadstica de datos
Variaci on explicada
SSR =
X
(y(x
i
) < y >)
2
= nr
2
s
2
y
Error estandar del ajuste
s
est
=
r
P
(y
i
y(x
i
))
2
n
= s
y
p
1 r
2
:
Pendiente
b = r
s
y
s
x
=
n
P
x
i
y
i

P
x
i
P
y
i
n
P
x
2
i
(
P
x
i
)
2
=
< xy > < x >< y >
< x
2
> < x >
2
=
< xy > < x >< y >
s
2
x
:
Intercepto
a = < y > r
s
y
s
x
=
P
x
2
i
P
y
i

P
x
i
P
x
i
y
i
n
P
x
2
i
(
P
x
i
)
2
=
< x
2
>< y > < x >< xy >
< x
2
> < x >
2
=
< x
2
>< y > < x >< xy >
s
2
x
:
Cap

tulo 4
Modelos lineales.
4.1 Introduccion.
En el captulo anterior se explic o el llamado ajuste lineal de mnimos cua-
drados. En fsica, en la mayor parte de los casos, se tiene en mente un
modelo el cual debe ser contrastado con los datos obtenidos. En este punto,
generalmente la cuesti on es: >hay evidencia experimental para rechazar el
modelo? Si la respuesta es no, ello no signica que se haya elegido el mejor
modelo o que el modelo corresponda a la realidad. Pueden haber muchos
modelos distintos relativos al mismo fen omeno que no puedan ser rechazados
por la evidencia experimental. En este punto probablemente deba elegirse de
acuerdo a otro tipo de criterios. Por ejemplo: el m as simple, el mas elegante,
el que tenga menos par ametros, el que este de acuerdo con alguna teora
mas amplia, etcetera. Desde nuestro personal punto de vista, la fsica expe-
rimental no demuestra cuestiones, sino que m as bien no descarta hip otesis
a menos que los datos as lo indiquen. Por ejemplo, no puede demostrarse
experimentalmente que la ley de interaccion entre dos cargas puntuales es
inversa al cuadrado de la distancia, sino m as bien debe decirse que no se
ha encontrado evidencia experimental para rechazar ese modelo. De hecho
las teoras - que son en cierta medida modelos justamente son descartadas
cuando se encuentra evidencia experimental contraria.
En fsica existe una permanente b usqueda de las posibles relaciones en-
tre propiedades fsicas, algunas veces derivadas de alguna teora, otras veces
por experimentacion pura. En el primer caso, evidencia experimental en con-
64 Modelos lineales.
trario causa un quiebre de la teora, mientras que en el segundo caso, si se
encuentra que una relaci on no es objetable, se trata afanosamente de justi-
carla te oricamente, lo cual a su vez produce avances en las teora. El avance
de los metodos experimentales encuentra caminos para producir avances en
las teoras, as tambien a la inversa.
En el captulo anterior se indicaron las tecnicas para hacer un ajuste de
mnimos cuadrados a un conjunto de datos. Es una pregunta frecuente
del como estimar los errores del ajuste, los errores de la pendiente y del
intercepto. Es mas, muchos programas computacionales simplemente los
calculan.
Sin embargo hay cuestiones conceptuales que es conveniente aclarar antes
de entrar a ese tema el cual requiere de matematicas algo avanzadas pero que
sera presentado de todos modos por completitud.
Si los datos fueran por ejemplo el consumo per c apita (y
i
) de alg un pro-
ducto a traves del tiempo (x
i
), y los datos son los correctos, no hay nada m as
que hacer y el ajuste de mnimos cuadrados, resulte de la calidad que sea,
es todo lo que se puede hacer. Podramos a lo sumo hacer una prediccion
sobre el consumo per c apita del a~ no siguiente, pero no hay forma de estimar
su error aun cuando el ajuste de los a~ nos anteriores sea perfecto. Esto es un
ejemplo pero hay muchsimas situaciones del mismo tipo.
Hay otro tipo de situaciones y eso hay que aclararlo a priori antes de
intentar aplicar las tecnicas que se explicaran.
4.2 Modelo lineal.
Es posible aventurar la hipotesis, basada en alg un tipo de argumentos, de que
existe una relacion lineal entre dos variables (x; y). Por ejemplo bas andose
en la teora electromagnetica, se puede hacer la hipotesis de que la corriente
en un dispositivo es una funcion lineal del voltaje aplicado. Es decir se puede
conjeturar que
y = +x:
Los coecientes y se denominan los parametros del modelo y se desea
tener alguna estimaci on de ellos, y ojal a establecer intervalos donde ellos
deberan encontrarse con alguna probabilidad especicada. Si se efect uan
mediciones para un n umero de valores \exactos" de x se obtendr a un con-
junto de valores medidos y los cuales por la naturaleza de los procesos de
4.2 Modelo lineal. 65
medicion, tendr an errores. Es decir existir a alguna distribucion de los valo-
res y medidos.
En otras palabras el conjunto (y
i
) constituye una muestra aleatoria, y los
coecientes del ajuste de mnimos cuadrados
y = a +bx;
es decir la
Pendiente
b =
< xy > < x >< y >
s
2
x
;
y el
Intercepto
a =
< x
2
>< y > < x >< xy >
s
2
x
:
pasan a ser variables aleatorias puesto que los y
i
lo son. Naturalmente, es
ahora importante dilucidar cuestiones acerca del cu anto se acercan los valores
calculados de a y b a los valores verdaderos o sea los par ametros del modelo.
Del modelo
y = +x
de deduce que el valor esperado de y
i
es
E(y
i
) = +E(x
i
) = +x
i
:
Adem as es facil establecer que
E( < y >) =
1
n
X
E(y
i
) = + < x >;
E( < xy >) =
1
n
X
x
i
E(y
i
) =
1
n
X
x
i
( +x
i
)
= < x > + < x
2
> :
Entonces podemos calcular
E(b) =
E(< xy >) < x > E(< y >)
s
2
x
=
< x > + < x
2
> < x > ( + < x >)
s
2
x
= :
66 Modelos lineales.
Similarmente
E(a) =
< x
2
> E(< y >) < x > E(< xy >)
s
2
x
=
< x
2
> ( + < x >) < x > ( < x > + < x
2
>)
s
2
x
= :
Es decir hemos demostrado que:
I Teorema 4.1
a y b son estimadores insesgados de los parametros y :
El calculo de la varianza de a y b es mas complicado. La tarea se simplica
algo si calculamos primero en general para una funci on lineal en los y
i
de la
forma
c =
X
i
d
i
y
i
Aceptaremos para los diversos x
i
las variables aleatorias y
i
; y
j
son inde-
pendientes y tienen la misma varianza :
Entonces

2
c
=
X
i
d
2
i

2
(y
2
i
) =
2
X
i
d
2
i
:
Luego de
b =
1
n
P
(x
i
< x >)y
i
s
2
x
;
podemos calcular

2
b
=
1
n
2
P
i
(x
i
< x >)
2

2
s
4
x
=
1
n

2
s
2
x
:
Similarmente de
a =
1
n
P
(< x
2
> < x > x
i
)y
i
s
2
x
;
sigue que

2
a
=

2
n
2
P
(< x
2
> < x > x
i
)
2
s
4
x
:
Usted podra probar que esto se puede escribir

2
a
=

2
n
< x
2
>
s
2
x
4.2 Modelo lineal. 67
4.2.1 Estimacion del parametro :
Para que las f ormulas anteriores tengan alguna utilidad, debemos ser capaces
de estimar : Se enuncia sin demostraci on el siguiente teorema.
I Teorema 4.2
Un estimador insesgado de
2
es
s
2
=
SSE
n 2
:
Note que si el ajuste es perfecto SSE = 0. Adem as de acuerdo al captulo
anterior
s
est
=
p
SSE = s
y
p
1 r
2
;
de modo que podemos estimar mediante
s =
s
y
p
1 r
2
p
n 2
4.2.2 Intervalos de conanza para y :
Aqu, nuevamente es necesario hacer algunas suposiciones. Podemos estimar
, mediante los coecientes a y b, pero debemos cuanticar algo sobre
la validez de la estimacion. El problema pasa por saber la distribuci on de
probabilidad que tienen las variables aleatorias a(y) y b(y). A su vez esto
depende de la distribucion de probabilidad que tiene la variable aleatoria y.
Supondremos que la variable aleatoria y
i
es normal con valor esperado
= +x
i
y desviacion estandar .
Usted podra hacer otras suposiciones, pero es en este caso donde hay
varios teoremas que enunciamos sin demostracion:
I Teorema 4.3
Un intervalo de conanza del (1 p)100% para el par ametro es
= b
st
p=2
s
x
p
n
donde t
p=2
es un valor de la distribucion t con n 2 grados de libertad.
68 Modelos lineales.
I Teorema 4.4
Un intervalo de conanza del (1 p)100% para el par ametro es
= a
st
p=2
p
P
x
2
i
ns
x
donde t
p=2
es un valor de la distribuci on t con n 2 grados de libertad.
I Teorema 4.5
Intervalo de prediccion. Un intervalo de conanza del (1 p)100% para el
valor esperado de una medicion y
0
correspondiente al valor x
0
es
y
0
= y(x
0
) st
p=2
s
1 +
1
n
+
(x
0
< x >)
2
s
x
p
n
donde t
p=2
es un valor de la distribuci on t con n 2 grados de libertad.
En estos teoremas la notaci on
y = y
0
;
signica
y
0
< y < y
0
+;
y
s =
s
y
p
1 r
2
p
n 2
:
4.2.3 Valores particulares de t
p
:
Para calcular los intervalos de conanza se~ nalados se requieren los valores
crticos t
p=2
para los cuales el n umero de grados de libertad es gl = n 2.
Por ejemplo si n = 20 y se desea un intervalo de conanza del 95% entonces
gl = 18, p=2 = 0:05=2 = 0:025, t
p=2
= 2:101:
4.2 Modelo lineal. 69
gl.np 0.10 0.05 0.025 0.01 0.005
1 3.078 6.314 12.706 31.821 63.657
2 1.886 2.920 4.303 6.965 9.925
3 1.638 2.353 3.182 4.541 5.841
4 1.533 2.132 2.776 3.747 4.604
5 1.476 2.015 2.571 3.365 4.032
6 1.440 1.943 2.447 3.143 3.707
7 1.415 1.895 2.365 2.998 3.499
8 1.397 1.860 2.306 2.896 3.355
9 1.383 1.833 2.262 2.821 3.250
10 1.372 1.812 2.228 2.764 3.169
11 1.363 1.796 2.201 2.718 3.106
12 1.356 1.782 2.179 2.681 3.055
13 1.350 1.771 2.160 2.650 3.012
14 1.345 1.761 2.145 2.624 2.977
15 1.341 1.753 2.131 2.602 2.947
16 1.337 1.746 2.120 2.583 2.921
17 1.333 1.740 2.110 2.567 2.898
18 1.330 1.734 2.101 2.552 2.878
19 1.328 1.729 2.093 2.539 2.861
20 1.325 1.725 2.086 2.528 2.845
21 1.323 1.721 2.080 2.518 2.831
22 1.321 1.717 2.074 2.508 2.819
23 1.319 1.714 2.069 2.500 2.807
24 1.318 1.711 2.064 2.492 2.797
25 1.316 1.708 2.060 2.485 2.787
26 1.315 1.706 2.056 2.479 2.779
27 1.314 1.703 2.052 2.473 2.771
28 1.313 1.701 2.048 2.467 2.763
29 1.311 1.699 2.045 2.462 2.756
inf. 1.282 1.645 1.960 2.326 2.576
70 Modelos lineales.
Cap

tulo 5
Fundamentos fsicos.
En este captulo se explican los conceptos fsicos o matem aticos de las diversas
opciones de c alculo o simulacion que tiene el programa. En el ultimo captulo
se explican m as detalles de las opciones que ofrece el programa en cada uno
de estos casos.
5.1 Problema de los dos cuerpos.
El famoso problema de los dos cuerpos con interacci on gravitacional entre
ellos, es un problema soluble de la Mecanica Clasica. Tomando en cuenta la
validez del principio de accion y reacci on, las dos ecuaciones para ese caso
son
m
1
~a
1
=
~
f(~ r
1
~ r
2
)
m
2
~a
2
=
~
f(~ r
1
~ r
2
):
Esas ecuaciones son f acilmente desacoplables utilizando como nuevas varia-
bles las posicion del centro de masa
~r
G
=
m
1
~r
1
+m
2
~r
2
m
1
+m
2
;
y la posici on relativa
~r = ~r
1
~r
2
;
72 Fundamentos fsicos.
Y
X
O
r
r
m
m
1
1
2
2
Figura 5.1: Problema dos cuerpos.
resultando
M~a
G
= 0;
~a =
~
f(~r);
siendo la masa reducida del sistema de dos partculas, es decir
=
m
1
m
2
m
1
+m
2
:
Entonces, el problema se ha reducido a resolver el problema de una partcula
de masa reducida en presencia de una fuerza central, con centro de fuerza
en una de las partculas. Este resultado es sorprendentemente simple consi-
derando que el origen (la posicion de una de las partculas) est a acelerado.
Para el caso de la fuerza gravitacional
~
f(~ r
1
~ r
2
) =
Gm
1
m
2
j~r
1
~r
2
j
3
(~r
2
~r
1
);
donde G = 6:67259 10
11
m
3
kg
1
s
2
es la constante de gravitaci on.
5.1.1 Solucion numerica.
Para efectos de la solucion numerica, no es necesario el procedimiento de
separar variables. Si suponemos que el movimiento tiene lugar en el plano
5.1 Problema de los dos cuerpos. 73
xy las ecuaciones de movimiento seran
~a
1
=
Gm
2
j~r
1
~r
2
j
3
(~r
2
~r
1
);
~a
2
=
Gm
1
j~r
1
~r
2
j
3
(~r
2
~r
1
);
donde la distancia entre las partculas es d
12
= j~r
1
~r
2
j =
p
(x
2
x
1
)
2
+ :
En componentes
x
1
=
Gm
2
d
3
12
(x
2
x
1
);
y
1
=
Gm
2
d
3
12
(y
2
y
1
);
x
2
=
Gm
1
d
3
12
(x
2
x
1
);
y
2
=
Gm
1
d
3
12
(y
2
y
1
);
Un sistema de cuatro ecuaciones diferenciales de segundo orden. Para redu-
cirlas a un sistema de ecuaciones de primer orden, se usan las deniciones de
velocidades v
x
1
= _ x
1
etcetera, resultando
_ v
x
1
=
Gm
2
d
3
12
(x
2
x
1
);
_ x
1
= v
x
1
;
_ v
y
1
=
Gm
2
d
3
12
(y
2
y
1
);
_ y
1
= v
y
1
;
_ v
x
2
=
Gm
1
d
3
12
(x
2
x
1
);
_ x
2
= v
x
2
;
_ v
y
2
=
Gm
1
d
3
12
(y
2
y
1
);
_ y
2
= v
y
2
;
es decir un sistema de 8 ecuaciones diferenciales simultaneas de primer orden
que han sido resueltas mediante un algoritmo de Runge Kutta de cuarto or-
den, vea (1.2). En el programa, las unidades son arbitrarias, pueden variarse
las masas y las condiciones iniciales que est an all especicadas son
74 Fundamentos fsicos.
Distancia inicial entre las partculas.
Componente radial de la velocidad inicial de la partcula (1):
Componente transversal de la velocidad inicial de la partcula (1):
Las componentes iniciales de la partcula (2) se ajustan automaticamente
de modo que el centro de masas del sistema permanezca en reposo.
5.2 Problema de los tres cuerpos.
El famoso problema de los tres cuerpos con interacci on gravitacional entre
ellos, es un problema no soluble de la Mecanica Cl asica. Esto es que no
hay soluciones analticas del problema, sin embargo, soluciones numericas
son posibles y es eso lo que explicaremos. Tomando en cuenta la validez del
principio de accion y reacci on, las ecuaciones para este sistema son
~a
1
=
Gm
2
j~r
1
~r
2
j
3
(~r
2
~r
1
) +
Gm
3
j~r
1
~r
3
j
3
(~r
3
~r
1
);
~a
2
=
Gm
1
j~r
2
~r
1
j
3
(~r
1
~r
2
) +
Gm
3
j~r
2
~r
3
j
3
(~r
3
~r
2
);
~a
3
=
Gm
1
j~r
1
~r
3
j
3
(~r
1
~r
3
) +
Gm
2
j~r
2
~r
3
j
3
(~r
2
~r
3
);
problema matem atico que no separable, es decir no se pueden escribir ecuacio-
nes para variables separadas, y por lo tanto no se puede integrar analticamente
5.2.1 Solucion numerica.
Para efectos de la su soluci on numerica, no es necesario separar variables.
Si suponemos que el movimiento tiene lugar en el plano xy, que es un caso
particular, hay como inc ognitas para el problema numerico de primer orden 6
coordenadas y 6 componentes de velocidad, es decir el sistema de ecuaciones
de primer orden tiene 12 ecuaciones simult aneas. Ellas son an alogas aunque
algo m as complicadas que para el problema de los dos cuerpos y no las
escribiremos aqu. El primer par es:
_ v
x
1
=
Gm
2
d
3
12
(x
2
x
1
) +
Gm
3
d
2
13
(x
3
x
1
);
_ x
1
= v
x
1
:
5.3 Proyectiles. 75
En el programa, las unidades son arbitrarias, pueden variarse las masas y
las condiciones iniciales que estan all especicadas para las tres partculas
inicialmente en lnea recta son:
Componente radial de la velocidad inicial de la partcula (1):
Componente transversal de la velocidad inicial de la partcula (1):
Componente radial de la velocidad inicial de la partcula (2):
Componente transversal de la velocidad inicial de la partcula (2):
Distancia inicial de la partcula (1) al centro de masas.
Distancia inicial de la partcula (2) al centro de masas.
Las componentes iniciales de velocidad y posici on de la partcula (3) se
ajustan autom aticamente de modo que el centro de masas del sistema per-
manezca en reposo en el centro de la ventana gr aca.
5.3 Proyectiles.
La aplicaci on de la segunda ley de Newton para un objeto que se mueve bajo
la acci on de la aceleracion de gravedad, supuesta constante g = 9:8 ms
2
hacia abajo,
m x = 0;
m y = g:
Si h indica la altura inicial sobre el origen, v
0
la rapidez inicial y es el angulo
inicial que forma la velocidad con el eje x, entonces mediante integracion se
obtienen los siguientes resultados
coordenadas y velocidades
v
x
= v
0
cos ;
x = v
0
(cos )t;
v
y
= v
0
sin gt;
y = h +v
0
(sin )t
1
2
gt
2
:
76 Fundamentos fsicos.
La ecuaci on cartesiana de la trayectoria es
y = h +xtan
gx
2
2v
2
0
cos
2

:
Para dar en un blanco a un punto x; y el angulo de disparo debera ser
tal que
tan =
v
2
0

p
(v
4
0
2gyv
2
0
+ 2ghv
2
0
g
2
x
2
)
gx
:
Par abola de seguridad. Si la cantidad subradical es cero, estamos en
la frontera de la region alcanzable por los disparos. Entonces esa curva
sera
v
4
0
2gyv
2
0
+ 2ghv
2
0
g
2
x
2
= 0;
de donde
y = h +
1
2g
v
2
0

1
2
g
v
2
0
x
2
:
Para llegar a puntos en el lmite, o sea sobre la parabola de seguridad,
el angulo de disparo estar a dado por
tan =
v
2
0
gx
:
h
!
O
Y
X
parbola de seguridad
parbola de disparo
Proyectiles.
5.4 Caminata al azar. 77
5.4 Caminata al azar.
Un ejemplo importante en la fsica consiste en analizar un movimiento so-
metido a variaciones al azar. Este ejemplo lo constituye la caminata al azar,
donde un punto puede moverse a la derecha o hacia la izquierda con probabi-
lidad p a la derecha y q hacia la izquierda, con longitud de pasos peque~ na d;
siendo p +q = 1. Como se explica con m as detalles en el apendice la funci on
distribucion de probabilidad de su posici on x, cuando los pasos son de longi-
tud d y han ocurrido N pasos en total con p = q = 1=2 resulta te oricamente
ser (la distribuci on binomial, vea 2.1)
P
N
(x) =
N!
(
N
2
+
x
2d
)!(
N
2

x
2d
)!
(
1
2
)
N
:
A medida que la longitud de los pasos tiende a cero, y el n umero de pasos
tiende a innito, la variable x tiende a ser una variable continua. En forma
m as precisa buscaremos el lmite cuando N ! 1, tendiendo d ! 0 en la
forma
d =

p
N
:
Luego la probabilidad de que la variable x tenga valores entre x = f2mNg d
y x = f2m+ 2 Ng d, es decir en el intervalo
dx = 2d =
2
p
N
resultando
f(x) =
1

p
2
e

x
2
2
2
:
con valor esperado cero y desviaci on est andar . Para efectos de hacer
calculos numericos
= d
p
N
con N grande debemos hacer pasos peque~ nos d = =
p
Ncon arbitrario.
5.5 Bifurcaciones.
Con f(x) = x(1 x) considere la regla de iteracion
x
n+1
= x
n
(1 x
n
) = f(x
n
):
78 Fundamentos fsicos.
Con un par ametro 2:5 < < 4: Partiendo de un valor cualquiera x
1
y un
determinado la sucesion de valores sucesivos generados x
1
; x
2
; : : : muestra
un comportamiento interesante, que usted podra apreciar m as a plenitud al
ejecutar el programa, men u de simulaciones, submenu bifurcaciones. Si usted
recuerda el metodo iterativo para buscar una raz, vea (1.1), a primera vista
parecera que estamos buscando la raz de
x = f(x):
En efecto, eso sucede para un intervalo de valores de . Sin embargo, para
valores de mayores (m as precisamente > 3 ) ocurre que despues de
algunas pocas iteraciones se repiten dos valores
x
2
= f(x
1
);
x
1
= f(x
2
);
o en otras palabras sucede que
x = f(f(x)):
Se dice que el sistema ha experimentado una bifurcaci on. De una solu-
cion, ahora hay dos. Similar comportamiento ocurre al seguir aumentando
el par ametro . Aparecen 4 soluciones, luego 8 y as sin lmite. Un famoso
diagrama que ilustra esta secuencia de bifurcaciones se ilustra en la gura
que sigue.
En el programa, en la opci on del men u 2, submen u bifurcaciones usted
podr a experimentar sobre este tema en particular estudiar la estructura m as
na del diagrama de bifurcaciones que muestra una clara estructura fractal.
La explicaci on de la secuencia de bifurcaciones es mas o menos la que sigue.
Como se explico en (1.1), la iteraci on
x = f(x);
converge a la raz, la intersecci on de la recta y = x con la funci on f(x) si el
angulo de la intersecci on es mayor de =2: Como la recta tiene pendiente 1
la intersecci on a 90
o
se tiene si f
0
(x) = 1. Eso quiere decir que la iteraci on
converge hasta que a la vez
f(x) = x;
f
0
(x) = 1:
5.5 Bifurcaciones. 79
Figura 5.2: Bifurcaciones.
De aqu se puede calcular que corresponde a la primera bifurcaci on
x = x(1 x);
(1 2x) = 1;
de la primera
x = 1
1

y eliminando x se obtiene

1
= 3:
Para encontrar el comienzo de la segunda bifurcaci on deber a ser
x = f(f(x));
f
0
(f(x))f
0
(x) = 1:
Es un buen ejercicio probar que entonces

2
= 1 +
p
6 = 3: 449 5:
El problema algebraico que signica encontrar analticamente los puntos de
las bifurcaciones superiores, es un gran problema. (Seg un mis conocimientos
no resuelto)
80 Fundamentos fsicos.
5.6 Scattering.
Este es otro famoso problema de dos cuerpos con interacci on electrica entre
ellos, que es un problema soluble de la Mecanica Cl asica. Si las cargas
electricas son de magnitudes q
1
y q
2
, K la constante de la ley de Coulomb
(K = 1=4
0
) entonces las ecuaciones de movimiento son
m
1
~a
1
=
Kq
1
q
2
j~r
1
~r
2
j
3
(~r
1
~r
2
)
m
2
~a
2
=
Kq
1
q
2
j~r
1
~r
2
j
3
(~r
2
~r
1
)
Esas ecuaciones son facilmente desacoplables utilizando como nuevas varia-
bles la posicion del centro de masa
~r
G
=
m
1
~r
1
+m
2
~r
2
m
1
+m
2
;
y la posici on relativa
~r = ~r
1
~r
2
;
resultando
M~a
G
= 0;
~a =
Kq
1
q
2
j~rj
3
~r;
siendo la masa reducida del sistema de dos partculas, es decir
=
m
1
m
2
m
1
+m
2
:
Entonces, el problema se ha reducido a resolver el problema de una partcula
de masa reducida en presencia de una fuerza repulsiva central, con centro
de fuerza en una de las partculas.
5.6.1 Solucion numerica.
Para efectos de la su soluci on numerica, no es necesario el procedimiento de
separar variables. Si suponemos que el movimiento tiene lugar en el plano
5.6 Scattering. 81
xy las ecuaciones de movimiento seran
x
1
=
Kq
1
q
2
m
1
d
3
12
(x
1
x
2
);
y
1
=
Kq
1
q
2
m
1
d
3
12
(y
1
y
2
);
x
2
=
Kq
1
q
2
m
2
j~r
1
~r
2
j
3
(x
2
x
1
);
y
2
=
Kq
1
q
2
m
2
j~r
1
~r
2
j
3
(y
2
y
1
);
donde la distancia entre las partculas es d
12
= j~r
1
~r
2
j : Un sistema de cuatro
ecuaciones diferenciales de segundo orden. Para reducirlas a un sistema de
ecuaciones de primer orden, se usan las deniciones de velocidades v
x
1
= _ x
1
etcetera, resultando
_ v
x
1
=
Kq
1
q
2
m
1
d
3
12
(x
1
x
2
);
_ x
1
= v
x
1
;
_ v
y
1
=
Kq
1
q
2
m
1
d
3
12
(y
1
y
2
);
_ y
1
= v
y
1
;
_ v
x
2
=
Kq
1
q
2
m
2
j~r
1
~r
2
j
3
(x
2
x
1
); ;
_ x
2
= v
x
2
;
_ v
y
2
=
Kq
1
q
2
m
2
j~r
1
~r
2
j
3
(y
2
y
1
);
_ y
2
= v
y
2
;
es decir un sistema de 8 ecuaciones diferenciales simultaneas de primer orden
que han sido resueltas mediante un algoritmo de Runge Kutta de cuarto or-
den, vea (1.2). En el programa, las unidades son arbitrarias, pueden variarse
las masas, las cargas, la constante de la ley de fuerza y las condiciones ini-
ciales que estan all especicadas que corresponden a partculas que de muy
lejos se acercan en lneas paralelas al eje x separadas con un distancia se
denomina parametro de impacto. Pueden entonces especicarse
Rapidez inicial de q
1
.
82 Fundamentos fsicos.
Y
X
O
r
r
m
m
1
1
2
2
Figura 5.3: Scattering.
Rapidez inicial de q
2
.
Par ametro de impacto. (1):
5.7 Pendulo de Kapitza.
De la dinamica de un sistema de partculas, se sabe que la relaci on general
entre derivada de momentum angular
~
L
A
y torque
~

ext
A
con respecto a un
punto arbitrario A es
d
~
L
A
dt
=
~

ext
A
M
!
AG~a
A
; (5.1)
siendo G el centro de masas. El pendulo de Kapitza consiste en un pendulo
de longitud L (una barra), de masa M y cuyo punto de suspensi on A oscila
verticalmente de la forma y
A
= a sin !t:
Para este caso aplicando (5.1) tenemos
I
A

= Mg
L
2
sin M(~r
G
~r
A
) ~a
A

^
k;
pero puede f acilmente verse que (~r
G
~r
A
) ~a
A

^
k =
L
2
a!
2
sin !t sin
5.7 Pendulo de Kapitza. 83
A
G
Y
"
a sin(#t)
X
a
A
Figura 5.4: Pendulo cuyo punto de suspensi on oscila
obteniendo en dos pasos la ecuaci on de movimiento para el angulo
I
A

= Mg
L
2
sin +M
L
2
a!
2
sin!t sin : (5.2)
Ha resultado una ecuaci on no lineal, similar a un pendulo simple pero some-
tida a una fuerza perturbadora que depende del tiempo y del angulo . Aqu
I
A
es el momento de inercia de la barra en un extremo y que es
I
A
=
1
3
ML
2
:
La soluci on de la ecuaci on (5.2) no es posible obtenerla en forma analtica
y analizar las diversas conductas del movimiento de este sistema. De mo-
do que para resolverla por metodos numericos se transforma en un sistema
de dos ecuaciones de primer orden acopladas, cuestion que permite utilizar
(nuevamente) los metodos de Runge-Kutta. Para ello llamemos ! =
_
y se
tiene entonces
_
! =
MgL
2I
A
sin +
ML
2I
A
a!
2
sin !t sin ;
_
= !:
Lo sorprendente del movimiento de este pendulo que es para valores apropia-
dos de los par ametros, el pendulo puede tener oscilaciones estables en torno
a la vertical hacia arriba. En el programa, se puede visualizar esa situaci on.
84 Fundamentos fsicos.
El programa mismo da un indicacion de como lograrlo. El programa tambien
puede visualizar la evoluci on del punto representativo (!; ) en el llamado
espacio de fase, que tiene por ejes precisamente a los valores de ! (vertical)
y (horizontal). Se pueden variar todos los parametros, es decir la amplitud
a de la oscilacion vertical, su frecuencia angular !, la longitud del pendulo,
la aceleraci on de gravedad g. La masa en realidad no inuye, pues se cancela
si se reemplaza el momento de inercia.
5.8 Ondas.
Son ondas unidimensionales, perturbaciones de cualquier naturaleza que se
propagan en la direcci on del movimiento, que llamaremos eje X; representa-
das por alguna funcion del tipo
(x; t) = F(x vt):
El signo + representa una onda viajera hacia la izquierda y el signo re-
presenta una onda viajera hacia la derecha. La forma de la perturbacion
permanece inalterada y el unico efecto es que ella viaja hacia la derecha o
hacia la izquierda con velocidad v:
O x
v
$(x,0)
$(x,t)
Onda viajera.
5.9 Ondas arm onicas.
Son perturbaciones viajeras del tipo
(x; t) = Acos (kx kvt +) :
La constante A se denomina amplitud de la onda y la constante k se requiere
porque el argumento del coseno debe ser adimensional y sera interpretada en
seguida. La constante se denomina fase de la onda.
5.9 Ondas arm onicas. 85
5.9.1 Periodo.
En un punto jo x, la onda recobra su mismo valor cada vez que transcurre
un tiempo denominado periodo T y esta dado por
kvT = 2:
5.9.2 Longitud de onda.
Si el tiempo se mantiene jo, la onda tiene el mismo valor y misma pendiente
cada vez que la posicion se incrementa en lo que se denomina la longitud de
onda y esta dada por
k = 2:
5.9.3 Frecuencia.
El recproco del periodo se denomina frecuencia de la onda f
f =
1
T
:
5.9.4 Relaciones.
de lo anterior se desprende que
vT = ;
k =
2

;
kv =
2
T
;
de modo que la onda puede escribirse
(x; t) = Acos

x
2
T
t +

:
5.9.5 Velocidad de la onda.
De lo anterior destacamos el hecho que la longitud de onda y la frecuencia
f determinan la velocidad de propagacion de la onda de acuerdo a
v = f:
86 Fundamentos fsicos.
5.9.6 Pulsaciones.
Otro fenomenos ocurre si las ondas que se superponen tienen la misma ve-
locidad pero diferentes longitudes de onda y en consecuencia diferentes fre-
cuencias. Suponiendo las mismas fases y amplitudes la superposici on es
= Asin(k
1
x !
1
t) +Asin(k
2
x !
2
t);
que puede escribirse como
= 2Asin
(k
1
+k
2
)x (!
1
+!
2
)t
2
cos
(k
1
k
2
)x (!
1
!
2
)t
2
;
esto es el producto de dos ondas que se propagan a velocidades diferentes
v
1
=
!
1
+!
2
k
1
+k
2
;
v
1
=
!
1
!
2
k
1
k
2
y que tienen frecuencias, una alta frecuencia
!
1
+!
2
y otra que puede ser muy peque~ na
!
1
!
2
si las ondas que se superponen tienen frecuencias pr oximas. Este fenomeno
se puede escuchar como un batido de baja frecuencia cuando se pulsan dos
cuerdas de guitarra casi anadas en la misma nota. En el computador usted
podr a apreciar este efecto al superponer dos ondas de frecuencias parecidas
en la opci on de sonido, pues cada onda sera generada por distintos canales,
y su cerebro har a la superposici on. (Suponemos que su computador esta
equipado con tarjeta de sonido y parlantes)
5.9.7 Ondas estacionarias.
La superposici on de ondas de la misma amplitud, frecuencia y amplitud que
viajen en sentidos contraro, por ejemplo
(x; t) = Asin (kx +kvt) +Asin(kx kvt) = 2Asin(kx) cos kvt
5.10 Atractor de Lorentz. 87
resulta en una onda que no viaja. Por ejemplo lo ceros de la perturbaci on,
llamados nodos de la onda estan en posiciones jas
x = 0; ; 2;
5.9.8 Interferencia de ondas.
La superposici on de ondas de la misma frecuencia y longitud de onda pero de
diferentes fases produce el fen omeno llamado de interferencia. Por ejemplo
la superposici on
(x; t) = A
1
cos

x
2
T
t +

+A
2
cos

x
2
T
t

resulta en una onda (demuestrelo)


(x; t) =
q
A
2
1
+A
2
2
+ 2A
1
A
2
cos cos(
2

x
2
T
t +
0
);
siendo
tan
0
=
A
1
sin
A
1
cos +A
2
:
La amplitud de la onda resultante tiene un mnimo jA
1
A
2
j , interferencia
destructiva si la diferencia de fase es un m ultiplo impar de ; = ; 3; 5; : : :
y tiene un maximo jA
1
+A
2
j ; interferencia constructiva si la diferencia de
fase es un m ultiplo par de ; = 0; 2; 4; 6; : : :. En particular si A
1
=
A
2
= A es decir las amplitudes son las mismas entonces usted puede vericar
que
(x; t) = Acos

x
2
T
t +

+Acos

x
2
T
t

= 2Acos

2
cos(
2

x
2
T
t +

2
):
5.10 Atractor de Lorentz.
Esta rutina resuelve el famoso problema del atractor de Lorentz que est a
dado por el conjunto de ecuaciones diferenciales no lineales de primer orden
88 Fundamentos fsicos.
dx
dt
= sx +sy:
dy
dt
= xz +rx y;
dz
dt
= xy bz:
Los valores por defecto de los par ametros son s = 10, r = 28, b = 2:66:
5.11 Promedios.
Como se explico en el captulo de probabilidades, la variable aleatoria
< x >=
1
N
N
X
i=1
x
i
en el lmite para N muy grande tiene como funcion distribuci on la distribu-
cion normal.
5.11.1 Simulacion.
El programa computacional genera n umeros aleatorios con distribuci on uni-
forme en un intervalo que se puede jar, calcula el promedio de un n umero
que tambien puede especicarse de esos n umeros aleatorios generados. Es-
te proceso lo repite un n umero de veces que tambien puede especicarse.
Este n umero debe elegirse grande de modo de tener al nal de cuentas un
n umero grande de promedios. El programa calcula entonces la distribucion
de los promedios generados, en forma graca y tambien hace un histograma
de ellos, de lo cual resulta visible la manera en que la distribuci on de ellos se
aproxima a la distribucion normal.
5.12 Normal. 89
5.12 Normal.
5.12.1 Generacion de una distribucion normal a partir
de variables uniformes.
Es sabido que disponiendo de una variable aleatoria con distribucion unifor-
me, pueden generarse variables aleatorias con otras distribuciones. Un caso
importante consiste en generar n umeros aleatorios con distribuci on normal.
Como se demostr o en el captulo de probabilidades, vea (2.7), si x; y son
variables aleatorias independientes y continuas con distribuci on uniforme en
el intervalo [0; 1] : Entonces la funci on distribuci on de la variable
z =
p
2 ln xcos 2y;
es la distribucion normal
h(z) =
1
p
2
e

1
2
z
2
(Adaptado de Numerical Recipes in Pascal)
Nota 5.1 Esto tiene una evidente importancia para efectos de c alculos numericos.
En la mayor parte de los programas de computaci on (C, Pascal, Basic,
etcetera) est an desarrolladas rutinas para generar variables con distribuci on
uniforme en alg un rango predeterminado. Utilizando el resultado anterior
podemos entonces generar una variable z con distribucion normal est andar.
5.13 Funciones distribucion.
Como se explica en el captulo de probabilidades, si se tienen variables alea-
torias con funciones distribuciones conocidas, entonces puede generarse ma-
tem aticamente la funci on distribuci on de funciones de esas variables aleato-
rias. Para el caso de dos dimensiones, se explico all lo siguiente:
5.13.1 Bidimensional
Cuando se tienen dos variables aleatorias continuas x, y con f
d
conocidas,
f(x), y g(y), supuestas independientes, la f
d
de una funci on z = F(x; y);
90 Fundamentos fsicos.
h(z) puede evaluarse como sigue
h(z) jdzj =
Z
z=F(x;y)
f(x)g(y) jdxdyj ; (5.3)
o sea la integral es sobre el area entre las dos curvas F(x; y) = z, y F(x; y) =
z + dz. Como veremos en un ejemplo pr actico, deberemos reemplazar las
variable (x; y) por otro conjunto (z; v) con v convenientemente elegida. Este
es un problema matematico que puede resultar muy complejo, pero de muy
f acil soluci on del punto de vista numerico.
5.13.2 Simulacion.
El programa genera variables aleatorias que hemos llamado x; p con distri-
buciones uniformes en intervalos que pueden jarse por el usuario. Entonces
se pueden denir dos funciones de esas variables aleatorias, llamadas F(x; p)
y G(x; p) y generar numericamente las respectivas funciones distribuci on. El
programa permite denir las funciones mediante el teclado, usando los opera-
dores usuales, ; =; +; ; :; ^; y funciones usuales como: ATAN, EXP, LN,
ROUND; SIN, SQRT, SQR, TRUNC: Usted podra experimentar sobre
funciones distribuciones tales como de
X +P;
X P;
X^2 +P^2;
SIN(P) EXP(X):
5.14 Sistema de ecuaciones diferenciales or-
dinarias.
Un gran n umero de problemas de la fsica en una dimensi on, donde la fuerza
es funcion de la posicion y de la velocidad, pueden escribirse en la forma
x = G(x; p):
Donde hemos llamado
p = _ x;
5.14 Sistema de ecuaciones diferenciales ordinarias. 91
tenemos entonces un sistema de ecuaciones diferenciales de primer orden
dx
dt
= p;
dp
dt
= G(x; p):
El programa de simulaciones resuelve numericamente ese problema y mas
generalmente el siguiente
dx
dt
= F(x; p);
dp
dt
= G(x; p);
utilizando una rutina de Runge-Kutta de cuarto orden. Las funciones de dos
variables G y F pueden denirse por teclado, al igual que como explicado en
la seccion anterior. Para quien sepa de programaci on, eso se logra median-
te una rutina de interpretacion de cadenas de caracteres (parser), que debe
interpretar las operaciones y las funciones incluidas en la cadena, para nal-
mente arrojar un valor numerico que corresponda a las funciones evaluadas
numericamente. El usuario puede denir lo que quiera, pero por defecto se
pueden elegir ejemplos bien conocidos, como ser
Oscilador arm onico.
dx
dt
= p;
dp
dt
= x:
Oscilador amortiguado.
dx
dt
= p;
dp
dt
= x 0:1p:
Ecuacion de Van der Pol.
dx
dt
= p;
dp
dt
= x +p(1 x
2
):
92 Fundamentos fsicos.
Pendulo simple.
dx
dt
= p;
dp
dt
= sin x:
Punto estable de una ecuaci on diferencial lineal.
dx
dt
= 0:5x p;
dp
dt
= 2:5x 0:5p:
Usted puede complicar lo que quiera este ejemplo introduciendo terminos
no lineales.
Punto montura de una ecuaci on diferencial lineal.
dx
dt
= 4x 3p;
dp
dt
= 2x + 3p:
Problema predador presa.
dx
dt
= 0:4x 0:3px;
dp
dt
= p + 0:2px:
Por supuesto, usted las puede modicar como quiera, introduciendo por
ejemplo terminos no lineales. El programa calcula y graca en cada caso x(t);
p(t) o ambos. Adem as graca el comportamiento del sistema en el llamado
espacio de fase, es decir graca p vs x:
Cap

tulo 6
Manual del programa.
6.1 Requerimientos.
El programa llamado \simulaciones.exe" debe ejecutarse. Preferiblemente
copielo al disco duro y ejec utelo desde all. No olvide que el computador
no puede salvar archivos ni gr acos en el CD. El programa conviene usarlo
con el Mouse, aunque es posible usarlo mediante el teclado. Se requiere un
computador r apido y ojal a con pantalla Super VGA, y tarjeta de sonido. Es-
te programa fue desarrollado en un Pentium de166 MHz usando resoluci on
de pantalla 1024 768 pero no debera haber problemas con otros modos,
excepto quizas que las ventanas sea necesario moverlas o adecuarlas de ta-
ma~ no. Explicaremos algunas de las opciones mediante guras, que fueron
capturadas de la pantalla durante la ejecuci on del programa. El programa
no est a totalmente desarrollado de manera que algunas de las opciones que
se implementar an en un futuro cercano, no est an habilitadas a un, pero s
las principales. No est an tampoco claro para el autor los requerimientos de
memoria que el programa exige. Durante el desarrollo estaban disponibles
48 MB de memoria RAM: Por ultimo, la deteccion de errores o anomalas,
es una tarea dicil de terminar, aunque se ha hecho un gran esfuerzo. Se so-
licita la colaboracion de los usuarios que informen de problemas que puedan
ocurrir durante la ejecuci on, para continuar con el proceso de depuraci on.
El programa es de libre distribucion y no se responde por cualquier efecto
indeseado que pudiera ocurrir.
Se agradece a la Universidad de Santiago de Chile por el apoyo prestado
94 Manual del programa.
para la realizaci on de este trabajo que fue desarrollado en el contexto de un
\Proyecto de desarrollo de la calidad de la docencia", concurso anual de esta
Universidad.
6.2 Principales opciones.
6.2.1 Estadsticas.
Al ejecutar la opci on estadsticas, aparece una ventana de este subprograma
que se muestra a continuaci on
Los datos son para una variable X que puede ser leida desde un archivo
texto, todos los datos en una columna, separados por retornos de carro,
en un archivo con extension .txt, o bien ingresarse por teclado. Despues
de tenerse datos, el boton
P
efect ua los c alculos de promedio, desviaci on
estandar, varianza, mnimo X y maximo X. Despues de calcular se habilita
una segunda opcion de calculo que posibilita clasicar los datos en clases, con
6.2 Principales opciones. 95
un n umero de clases por defecto en 10, pero eso puede cambiarse. Finalmente,
el programa muestra las clases u optativamente un histograma de frecuencias
con posibilidad de imprimir gr aco, salvar gr aco y salvar los resultados
numericos.
6.2.2 Ventana inicial, Men u 2.
Se muestra una ventana inicial del programa donde mediante el Mouse se
activa el segundo Men u
Usted puede entonces pinchar con el Mouse cada una de las opciones de
este Men u. Puede tambien terminar el programa en la opci on del Men u,
Fin programa, o cerrando la ventana principal en la del extremo superior
derecho. (Lo usual en Windows)
96 Manual del programa.
6.2.3 Dos cuerpos.
Al ejecutar la opci on \Dos cuerpos" aparece la ventana de este sub progra-
ma con sus diversas opciones, algunas establecidas por defecto. Cualquiera
de ellas puede cambiarse, eligiendo el cuadro respectivo mediante el Mouse,
y sobre escribiendo alg un otro valor. Tres botones son importantes
Inicia: comienza la simulacion.
Termina: detiene la simulaci on.
Salir: sale de este sub programa y vuelve al Men u principal.
Recomendaciones: pruebe casos especiales, masas iguales, una masa mu-
cho m as grande que la otra. Disminuya la constante de la ley de fuerza o
aumentela.
6.2 Principales opciones. 97
6.2.4 Tres cuerpos.
La ventana de este subprograma es an aloga
Ahora hay m as par ametros disponibles para su ajuste. Los que vienen
establecidos pueden ser modicados. En este caso, como usted vera al mo-
dicar los par ametros, el tipo de comportamiento es muy variado e incluso
puede que el sistema se separe, que alguna partcula se escape, o que ocurran
problemas numericos al acercarse demasiado las partculas, Por esa raz on,
mientras usted lo piense, se ofrecen otras opciones de parametros que dan
comportamientos m as o menos interesantes de este sistema.
Para cambiar entre cuatro condiciones iniciales que se ofrecen, mediante
el Mouse elija inicial (1) o (2), (3), (4) y luego pulse el bot on \Cambia".
Tres botones son importantes
Inicia: comienza la simulaci on.
98 Manual del programa.
Termina: detiene la simulaci on.
Salir: sale de este sub programa y vuelve al Men u principal.
El programa dibuja las orbitas. Despues de mucho tiempo, las orbitas
se enredan y puede ser deseable borrarlas sin detener la ejecuci on de la si-
mulaci on. El bot on \borra y contin ua" lo hace. La perspectiva del plano
de movimiento puede ser cambiada. Inicialmente el plano de movimiento es
mirado de frente, angulo de elevaci on de 90
o
. Ese angulo puede ser cambiado.
6.3 Proyectiles.
La ventana de ejecuci on de este subprograma es la siguiente
6.4 Caminata al azar. 99
Fuera de los cuadros de di alogo que permiten modicar algunos par ametros
hay otras cosas que explicar. Hay Dos ventanas gr acas. La superior mues-
tra curvas y trayectorias calculadas al vuelo por el computador. La inferior
muestra la evolucion del proyectil en tiempo real siempre que se elija esa
opci on. (curvas-tiempo real)
Adem as hay m as botones de control
Inicia: comienza la simulaci on.
Aborta calculos: detiene la simulaci on.
Salir: sale de este sub programa y vuelve al Men u principal.
Calcula: Graca una u otra de las par abolas de tiro para dar en un
blanco determinado, cuyas coordenadas pueden establecerse.
La opci on tiempo de vuelo puede ser necesario modicarla si el blanco
esta muy lejos del ca~ non.
6.4 Caminata al azar.
La ventana de ejecuci on de este subprograma es la siguiente
100 Manual del programa.
Como usted puede ver hay tres ventanas gracas. En la superior se graca
el desplazamiento x en funcion del n umero de pasos. Si las probabilidades
de pasos hacia la derecha o hacia la izquierda son iguales p = q = 1=2;
puede esperarse que ese gr aco quede m as o menos centrado en el cero. En
otros casos, habr a un avance progresivo hacia la derecha o hacia la izquierda
(arriba o abajo). La segunda ventana muestra la distribuci on de frecuencias
relativas por intervalos de desplazamiento y la cuarta ventana muestra los
correspondientes datos que fueron gracados.
Inicia caminata: comienza la simulacion.
6.5 Bifurcaciones.
La ventana de ejecuci on de este subprograma es la siguiente
6.5 Bifurcaciones. 101
Itera logstica, realiza gr acamente la iteraci on
x
n+1
= x
n
(1 x
n
)
para el valor seleccionado del par ametro :
Genera bifurcaciones. Dibuja en la segunda ventana graca el diagrama
de bifurcaciones, inicialmente en los rangos = (2:5 4), y = (0
1). Al estar hecho, mediante el Mouse se puede elegir una zona para
generar de nuevo el diagrama de bifurcaciones de esa ventana elegida
mediante el Mouse. (Pinche y arrastre) As se puede ver la estructura
na del diagrama. Restablece cambia los parametros de la ventana a
su conguraci on original = (2:5 4), y = (0 1):
102 Manual del programa.
6.6 Scattering.
La ventana de ejecuci on de este subprograma es la siguiente
Tres botones son importantes
Inicia: comienza la simulacion.
Termina: detiene la simulaci on.
Salir: sale de este sub programa y vuelve al Men u principal.
Inicia random. Se observa el movimiento relativo, cuando la partcula
que impacta viene con par ametros de impacto generados random.
Puede usted visualizar el Scattering de cuatro puntos de vista: Labora-
torio, Centro de masas, relativo a Q
1
relativo a Q
2
: Observe que tambien
6.7 Pendulo de Kapitza. 103
se produce scattering si la fuerza es atractiva. (Coloque constante de ley de
fuerza negativa)
6.7 PendulodeKapitza.
La ventana de ejecuci on de este subprograma es la siguiente para la opci on
elegida \espacio de fase"
y para la opci on pendulo la que sigue. Observe que la opci on \indicacion"
le indica en que rangos debe esta la amplitud (seg un cual sea la frecuencia
elegida) para las cuales el pendulo efectuara oscilaciones estables invertido .
104 Manual del programa.
6.8 Ondas.
La ventana de ejecuci on de este subprograma es la siguiente
6.8 Ondas. 105
Genera: comienza la simulacion.
Termina: detiene la simulaci on.
Salir: sale de este sub programa y vuelve al Men u principal.
Sonido: Permite enviar a la tarjeta de sonido dos ondas de diferente
frecuencia, canal izquierdo y derecho separadamente, seg un las frecuen-
cias que se elijan y que pueden ademas modicarse en otra ventana de
dialogo que se abrir a
106 Manual del programa.
Start : enva se~ nales a la tarjeta de sonido.
Exit : cierra la ventana de salida de sonido.
Frecuencia manual: puede usted mediante el Mouse arrastrar la len-
gueta y variar las frecuencias de cada canal (Left-Right).
Nivel de salida: puede usted mediante el Mouse arrastrar la lengueta y
variar los niveles de salida de cada canal (Left-Right).
6.9 Atractor de Lorentz. 107
6.9 Atractor de Lorentz.
Esta rutina resuelve el famoso problema del atractor de Lorentz que est a
dado por el conjunto de ecuaciones diferenciales no lineales de primer orden
dx
dt
= sx +sy:
dy
dt
= xz +rx y;
dz
dt
= xy bz:
Los valores por defecto de los par ametros son s = 10, r = 28, b = 2:66,
que usted podr a variar como quiera. Se puede visualizar el movimiento del
punto x; y; x en tres dimensiones o en los planos xy, xz, yz, as como variar
la orientaci on de los ejes en la vista tridimensional variando los n umeros n
1
,
n
2
y n
3
que dan la orientacion del punto de vista que est a a lo largo de la
direccion (n
1
; n
2
; n
3
).
La ventana de ejecuci on de este subprograma es la siguiente.
108 Manual del programa.
Pensamos que ya no es necesario explicar m as.
6.10 Men u 4. 109
6.10 Men u 4.
Mostraremos solamente las ventanas que se abren al ejecutarse los sub-
programas.
6.11 Promedios.
La ventana que corresponde a este subprograma se muestra a continuacion
donde se muestran los resultados de haber generado 100 promedios, cada uno
de 10 n umeros generados al azar uniforme entre [0; 10]. Ellos se han clasi-
cado en 30 clases (intervalos) mostrando el histograma como su distribuci on
se aproxima a la distribuci on normal. Se dan adem as algunos estadgrafos
para la distribuci on obtenida: mnimo, m aximo, valor esperado y desviacion
estandar.
110 Manual del programa.
6.12 Normal.
Como se explico en el captulo de probabilidades, se puede generar una dis-
tribucion normal, partiendo de variables aleatorias uniformes. La ventana
muestra el resultado cuando se hacen 1000 iteraciones para variables aleato-
rias uniformes en el intervalo [3; 3]. Los resultados se han clasicado en 40
clases (intervalos). Usted podr a experimentar para m as iteraciones y otros
par ametros.
6.13 Funciones distribuci on. 111
6.13 Funciones distribucion.
>Cual es la funcion distribuci on de una funcion de variables aleatorias? Con
este subprograma usted podra tener una respuesta experimental (simulada)
de lo que acontece.
112 Manual del programa.
El resultado que muestra esta ventana, corresponde a la funci on distribu-
cion de la funci on F = p
2
cuando p tiene distribucion uniforme en el intervalo
p : [5; 5]. Pruebe ejemplos mas complicados, tales como
F(x; p) = xp;
F(x; p) = x
2
p
2
;
F(x; p) = sin xsinp;
F(x) = 4x(1 x) para x 2 [0; 1]:
Hay otras opciones que no estan explicadas aqu, pero creemos que no
habr a problemas en usarlas. Ellas son
6.13.1 Colores.
Muestra como se combinan colores seg un se trate de luces o de pigmentos
(que absorben luz).
6.13 Funciones distribuci on. 113
6.13.2 Unidades.
>Tiene problemas con la conversi on de unidades?. Aqu podr a usted convertir
entre unidades de una gran variedad disponible, de longitud, de tiempo, de
energa, de temperatura y muchas otras m as.
114 Manual del programa.
Cap

tulo 7
Apendice
7.1 A) La distribuci on exponencial.
El an alisis, que requiere conocimientos de matematicas algo elevados y que
conduce a la distribucion exponencial es el siguiente. Si la probabilidad de
que un dispositivo falle en entre tiempo t y tiempo t +dt, por hip otesis es
f(t)dt
sera igual al producto de que no haya fallado en el intervalo t : 0 ! t, y
falle a continuacion, es decir
f(t)dt =

1
Z
t
0
f())d

dt

;
de aqu
df(t)
dt
=
f(t)

;
e integrando
f(t) = ce

;
normalizaci on (certeza que falle alguna vez) requiere que
1 =
Z
1
0
ce

dt = c;
de donde nalmente
f(t) =
1

;
116 Apendice
7.2 B) El proceso de Poisson. Detalles.
Consideremos una fuente radioactiva que emite partculas y denamos una
variable aleatoria X(t
1
; t
2
) como el n umero de partcula emitidas durante
un intervalo de tiempo [t
1
; t
2
] : Como se explico, denotaremos tal funci on de
distribuci on por
P
n
(t
1
; t
2
) = P [X(t
1
; t
2
) = n] :
Nos proponemos deducir la distribucion de probabilidad para la variable
aleatoria recien denida haciendo algunas hipotesis. (Este es un ejemplo
donde la naturaleza intrnsecamente probabilista de la naturaleza se pone de
maniesto). Las suposiciones que haremos son las siguientes
Caso 3 Las variables X(t
1
; t
2
) y X(t
3
; t
4
) son independientes si los
intervalos de tiempo tienen intersecci on vaca.
La funci on distribuci on de X(t
1
; t
2
) depende solo de t
2
t
1
. (caso con-
trario tendramos que preocuparnos de cuando fue creada tal substancia
radioactiva, para empezar a contar el tiempo). Por lo tanto llamaremos
simplemente t al intervalo de tiempo
Si el intervalo de tiempo es peque~ no, supondremos que la funci on de
distribuci on para que haya una emisi on es proporcional al intervalo de
tiempo. Es decir
P
1
(dt) = P [X(dt) = 1] = dt:
Supondremos tambien que si el intervalo de tiempo es innitesimo, la
probabilidad de tener mas de una emisi on es despreciable, es decir
P
k
(dt) = P [X(dt) = k] = 0 si k > 1:
Tambien, la probabilidad de que no haya ninguna emisi on en dt de
tiempo sera
P
0
(dt) = 1 dt;
de modo que conocemos P
0
para tiempos peque~ nos.
De acuerdo a lo anterior, la probabilidad de tener n + 1 emisiones en un
tiempo t+dt, es el producto de tener n emisiones en un tiempo t, multiplicada
7.2 B) El proceso de Poisson. Detalles. 117
por la probabilidad de tener una emision en el intervalo dt, (o bien, por ello
+) la probabilidad de tener n + 1 emisiones en tiempo t y ninguna en dt, es
decir
P
n+1
(t +dt) = P
n
(t)dt + P
n+1
(t)(1 dt);
se ha obtenido una ecuacion funcional para determinar P
n
(t). Sin embargo
la probabilidad de no tener una emision en tiempo t + dt es simplemente la
probabilidad de no emision en tiempo t multiplicada por la probabilidad de
no emisi on en tiempo dt, es decir
P
0
(t +dt) = P
0
(t)(1 dt);
que puede ser resuelta pues se obtiene
dP
0
(t)
dt
= P
0
(t);
o bien, mediante una integraci on
P
0
(t) = P
0
(0)e
t
:
Considere ahora que
P
n+1
(t +dt) = P
n+1
(t) +P
0
n+1
(t)dt;
resultando
P
0
n+1
(t) = P
n
(t) P
n+1
(t);
sea P
n
(t) = g
n
(t)e
t
, con g
0
(t) = P
0
(0), resulta
g
0
n+1
= g
n
(t);
puede integrarse recursivamente obteniendo
g
1
(t) = P
0
(0)t;
y
g
2
(t) =
1
2!

2
P
0
(0)t
2
;
y nalmente
P
n
(t) =
1
n!

n
P
0
(0)t
n
e
t
;
118 Apendice
normalizaci on exige que
n=1
X
n=0
P
n
(t) = 1;
resultando P
0
(0) = 1, y nalmente
P
n
(t) =
1
n!
(t)
n
e
t
;
7.3 C) Algunos detalles matematicos.
Aqu se explican los detalles para el caso en que las variables x
i
(i = 1; 2; N)
son independientes con distribuci on uniforme en el intervalo

2
;

2

, y se de-
sea obtener la distribucion de la variable aleatoria
x =
1
p
N
N
X
i=1
x
i
en el lmite para N muy grande. (Estos detalles requieren de solidos conoci-
mientos de matematicas que si usted desea puede omitir)
Haciendo uso de la independencia de las variables, podemos entonces
escribir la expresion
f(x)dx =
Z

Z
P(x
1
)dx
1

P(x
2
)dx
2


P(x
N
)dx
N

;
donde la integral m ultiple es sobre la regi on donde
dx =
1
p
N
N
X
i=1
dx
i
;
y
P(x) =
8
<
:
0 si x <
1
2

1 si
1
2
< x <
1
2

0 si x >
1
2

;
la integral puede ser reducida a todo el espacio usando la delta de Dirac una
de cuyas representaciones que usaremos es
7.3 C) Algunos detalles matematicos. 119
(x) =
1
2
Z
1
1
e
ikx
dk;
de modo que
f(x)dx =
Z 1
2

1
2


Z 1
2

1
2

P(x
1
)dx
1

P(x
2
)dx
2


P(x
N
)dx
N

..
(x
1
p
N
N
X
i=1
x
i
)dx;
pero
f(x)dx =
1
2
Z
1
1
e
ikx
dk
Z 1
2

1
2


Z 1
2

1
2

P(x
1
)dx
1

P(x
2
)dx
2


P(x
N
)dx
N

i
p
N
P
N
j=1
x
j
dx;
que puede ser escrita como
f(x) =
1
2
Z
1
1
e
ikx
dk

Z 1
2

1
2

dze
ik
1
p
N
z
!
N
;
pero
1

Z 1
2

1
2

e
ik
1
p
N
z
dz =
2
p
N
k
sin
k
2
p
N
;
luego
f(x) =
1
2
Z
1
1
e
ikx
dk

2
p
N
k
sin
k
2
p
N
!
N
;
para evaluar el lmite cuando N ! 1, usemos la expansion
sin z = z
1
6
z
3
, de modo que resulta
f(x) =
1
2
Z
1
1
e
ikx
dk

1
1
24

2
k
2
N

N
;
120 Apendice
o bien
1
2
Z
1
1
e
ikx

2
k
2
24
dk;
que es evaluada mediante tablas
1
2
p

6x
2

2
p
24

pero
V ar(x) =
2
=
1

Z 1
2

1
2

x
2
dx =
1
12

2
;
por lo cual
f(x) =
1
p
2
e

x
2
2
2
;
7.4 D) La distribuci on binomial.
Si se repite varias veces el experimento donde hay dos resultados posibles A
con probabilidad p y B con probabilidad q = 1 p, entonces la probabilidad
de que en n experimentos ocurran m resultados A; en cualquier orden, es la
llamada distribucion binomial
P =

n
m

p
mnm
=
n!
m!(n m)!
p
m
q
nm
: (7.1)
Podemos vericar que esta correctamente normalizada pues
n
X
m=0

n
m

p
m
q
nm
= (p +q)
n
= 1:
7.4.1 El valor esperado de m:
Su denici on es
E(m) =
n
X
m=0
m

n
m

p
m
q
nm
;
7.4 D) La distribucion binomial. 121
que puede ser evaluado mediante un truco. En efecto
E(m) = p
n
X
m=0
m

n
m

p
m1
q
nm
= p
@
@p
n
X
m=0

n
m

p
m
q
nm
= p
@
@p
(p +q)
n
= np(p +q)
n1
= np;
nalmente
E(m) = np:
7.4.2 La varianza de m:
Debemos calcular
E(m
2
) =
n
X
m=0
m
2

n
m

p
m
q
nm
;
sumatoria m as dicil de calcular. Similarmente a lo hecho anteriormente
E(m
2
) = p
n
X
m=0
m
2

n
m

p
m1
q
nm
= p
@
@p
n
X
m=0
m

n
m

p
m
q
nm
= p
@
@p
p
n
X
m=0
m

n
m

p
m1
q
nm
= p
@
@p
p
@
@p
n
X
m=0

n
m

p
m
q
nm
= p
@
@p
p
@
@p
(p +q)
n
= np
@
@p
p(p +q)
n1
= np((p +q)
n1
+ (n 1)p(p +q)
n2
);
pero
p +q = 1;
luego
E(m
2
) = np(1 + (n 1)p):
122 Apendice
Entonces

2
m
= E(m
2
) (E(m))
2
= np(1 + (n 1)p) n
2
p
2
= np(1 p) = npq;
= E(m)(1 p)
Para p = q =
1
2
se tiene que
E(m) =
1
2
n;

2
m
=
1
4
n:
7.4.3 Lmite para n grande
Considere (7.1) y tomemos su logaritmo
y(m) = ln P = lnn! lnm! ln(n m)! +mln p + (n m) ln q;
y usemos la aproximacion de Stirling para n umeros grandes
lnn! = nln n n;
entonces
y(m) = nln n mln m(n m) ln(n m) +mln p + (n m) ln q:
Para expandir en torno al maximo derivemos respecto a m
y
0
(m) = ln m+ ln(n m) + ln p lnq;
y
00
(m) =
n
m(n m)
:
El m aximo ocurre cuando y
0
(m
0
) = 0 o sea m
0
= np =
m
. La expansi on
buscada ser a
y(m) = y(m
0
)
1
2
n
m
0
(n m
0
)
(mm
0
)
2
;
= y(m
0
)
1
2
1
npq
(mm
0
)
2
;
= y(m
0
)
1
2
1

2
m
(m
m
)
2
;
7.4 D) La distribucion binomial. 123
de modo que nalmente
P(m) = Ce

1
2
1

2
m
(m
m
)
2
;
P(m) = Ce

1
2
1
npq
(mnp)
2
;
es decir, una distribucion Gaussiana.
7.4.4 Caminata al azar
Como un ejemplo, analizaremos la caminata al azar, donde un punto puede
moverse a la derecha o hacia la izquierda con probabilidad p a la derecha y q
hacia la izquierda, con longitud de pasos peque~ na d, y deseamos encontrar la
funcion distribucion de probabilidad de su posici on x, cuando los pasos son
de longitud d y han ocurrido N pasos en total
Para m pasos a la derecha y por lo tanto N m pasos a la izquierda, la
posicion x estar a dada por
x = fm(N m)g d = f2mNg d;
y la probabilidad de este valor de x estar a dado por la distribucion binomial
P =

N
m

p
m
q
Nm
=
N!
m!(N m)!
p
m
q
Nm
:
Expresemos esto en terminos de la variable x. Tenemos que
m =
N
2
+
x
2d
;
N m =
N
2

x
2d
:
En particular si los pasos a la derecha y a la izquierda ocurren con la misma
probabilidad entonces
p = q =
1
2
;
y tendremos
P
N
(x) =
N!
(
N
2
+
x
2d
)!(
N
2

x
2d
)!
(
1
2
)
N
:
A medida que la longitud de los pasos tiende a cero, y el n umero de pasos
tiende a innito, la variable x tiende a ser una variable continua. En forma
124 Apendice
m as precisa buscaremos el lmite cuando N ! 1, tendiendo d ! 0 en la
forma
d =

p
N
:
Luego la probabilidad de que la variable x tenga valores entre x = f2mNg d
y x = f2m+ 2 Ng d, es decir en el intervalo
dx = 2d =
2
p
N
en torno de x sera
f(x)dx = f(x)
2
p
N
=
N!
(
N
2
+
x
2d
)!(
N
2

x
2d
)!
(
1
2
)
N
de donde (el algebra es algo tediosa)
f(x) =
p
N
2
N!
(
N
2
+
x
2d
)!(
N
2

x
2d
)!
(
1
2
)
N
;
=
p
N
2
N!
(
N
2
+
x
2
p
N)!(
N
2

x
2
p
N)!
(
1
2
)
N
;
=
p
N
2
N!
(
N
2
(1 +
x

p
N
)!(
N
2
(1
x

p
N
)!
(
1
2
)
N
;
cuestion sobre la que tomaremos el lmite cuando N ! 1. Para ello usare-
mos la llamada aproximacion de Stirling
n! !
p
2nn
n
e
n
;
podemos aproximar
(
N
2
(1 +))! =
r
2
N
2
(1 +)(
N
2
(1 +))
N
2
(1+)
e

N
2
(1+)
;
(
N
2
(1 ))! =
r
2
N
2
(1 )(
N
2
(1 ))
N
2
(1)
e

N
2
(1)
;
y entonces
(
N
2
(1 +))!(
N
2
(1 ))! = N
p
1
2
(
N
2
)
N
(1
2
)
N
2
(1 +)
N
2
()
(1 )
N
2
()
e
N
;
N! =
p
2NN
N
e
N
;
7.4 D) La distribucion binomial. 125
resultando
f(x) = =
p
N
2
p
2NN
N
(1 )
N
2
()
N
p
1
2
(
N
2
)
N
(1
2
)
N
2
(1 +)
N
2
()
(
1
2
)
N
=
1
2
p
2(1
x

p
N
)
N
2
(
x

p
N
)

p
1
2
(1
x
2

2
N
)
N
2
(1 +
x

p
N
)
N
2
(
x

p
N
)
=
1

p
2
(1
x

p
N
)
x
p
N
2
(1
x
2

2
N
)
N
2
(1 +
x

p
N
)
x
p
N
2
=
1

p
2
(e

)
x
2
e

x
2
2
2
(e
x

)
x
2
=
1

p
2
e

x
2
2
2
:
Donde hemos usado
(1 +
x
N
)
N
! e
x
:
Sorprendentemente, hemos encontrado que se trata de la distribucion normal.
f(x) =
1
p
2
e

x
2
2
2
:
con valor esperado cero y desviaci on est andar . Para efectos de hacer
calculos numericos
= d
p
N
con N grande debemos hacer pasos peque~ nos d = =
p
Ncon arbitrario.

Anda mungkin juga menyukai