Anda di halaman 1dari 13

Cuando se analizan datos medidos por una variable cuantitativa continua, las

pruebas estadsticas de estimacin y contraste frecuentemente empleadas se basan


en suponer que se ha obtenido una muestra aleatoria de una distribucin de
probabilidad de tipo normal o de Gauss. Pero en muchas ocasiones esta suposicin
no resulta vlida, y en otras la sospecha de que no sea adecuada no resulta fcil de
comprobar, por tratarse de muestras pequeas. En estos casos disponemos de dos
posibles mecanismos: los datos se pueden transformar de tal manera que sigan
una distribucin normal, o bien se puede acudir a pruebas estadsticas que no se
basan en ninguna suposicin en cuanto a la distribucin de probabilidad a partir de
la que fueron obtenidos los datos, y por ello se denominan pruebas no
paramtricas (distribution free), mientras que las pruebas que suponen una
distribucin de probabilidad determinada para los datos se denominan pruebas
paramtricas.

Dentro de las pruebas paramtricas, las ms habituales se basan en la


distribucin de probabilidad normal, y al estimar los parmetros del modelo se
supone que los datos constituyen una muestra aleatoria de esa distribucin, por lo
que la eleccin del estimador y el clculo de la precisin de la estimacin,
elementos bsicos para construir intervalos de confianza y contrastar hiptesis,
dependen del modelo probabilstico supuesto.

Cuando un procedimiento estadstico es poco sensible a alteraciones en el modelo


probabilstico supuesto, es decir que los resultados obtenidos son aproximadamente
vlidos cuando ste vara, se dice que es un procedimiento robusto.

Las inferencias en cuanto a las medias son en general robustas, por lo que si el
tamao de muestra es grande, los intervalos de confianza y contrastes basados en
la t de Student son aproximadamente vlidos, con independencia de la verdadera
distribucin de probabilidad de los datos; pero si sta distribucin no es normal, los
resultados de la estimacin sern poco precisos.

Procedimientos para verificar el ajuste a una distribucin de


probabilidad

Existen diferentes pruebas para verificar el ajuste de nuestros datos a una

distribucin de probabilidad. Las dos ms utilizadas son el contraste de


Pearson, y la prueba de Kolmogorov-Smirnov.

Contraste de Pearson

La idea del contraste de Pearson es muy sencilla: se agrupan los datos en k clases
(k>5), como si furamos a construir un histograma, cubriendo todo el rango posible
de valores, siendo deseable disponer, aproximadamente, del mismo nmero de
datos en cada clase y al menos de tres datos en cada una.

Llamamos Oi al nmero de datos observado en la clase i. Mediante el modelo de


probabilidad que se desea verificar se calcula la probabilidad Pi asignada a cada
clase, y por lo tanto, para una muestra de n datos, la frecuencia esperada segn
ese modelo de probabilidad es Ei=n.Pi.
Se calcula entonces el siguiente ndice de discrepancia entre las frecuencias
observadas y las que era previsible encontrar si el modelo fuera el adecuado:

que se distribuye aproximadamente como una si el modelo es correcto.

Si el modelo se especifica de forma completa con las probabilidades Pi, conocidas


antes de tomar los datos, el nmero de grados de libertad es k-1. Pero si se han
estimado r parmetros del modelo a partir de los datos, entonces los grados de
libertad son k-r-1.

Prueba de Kolmogorov-Smirnov

Este contraste, que es vlido nicamente para variables continuas, compara la


funcin de distribucin (probabilidad acumulada) terica con la observada, y calcula
un valor de discrepancia, representado habitualmente como D, que corresponde a
la discrepancia mxima en valor absoluto entre la distribucin observada y la
distribucin terica, proporcionando asimismo un valor de probabilidad P, que
corresponde, si estamos verificando un ajuste a la distribucin normal, a la
probabilidad de obtener una distribucin que discrepe tanto como la observada si
verdaderamente se hubiera obtenido una muestra aleatoria, de tamao n, de una
distribucin normal. Si esa probabilidad es grande no habr por tanto razones
estadsticas para suponer que nuestros datos no proceden de una distribucin,
mientras que si es muy pequea, no ser aceptable suponer ese modelo
probabilstico para los datos.

Prueba de Shapiro-Wilks

Aunque esta prueba es menos conocida es la que se recomienda para contrastar


el ajuste de nuestros datos a una distribucin normal, sobre todo cuando la
muestra es pequea (n<30).

Mide el ajuste de la muestra a una recta, al dibujarla en papel probabilstico normal.


Este tipo de representacin tambin lo proporcionan algunos programas de
estadstica, de tal manera que nos permite adems apreciar el ajuste o desajuste
de forma visual:
En escala probabilstica normal se representa en el eje horizontal, para cada valor
observado en nuestros datos, la funcin de distribucin o probabilidad acumulada
observada, y en el eje vertical la prevista por el modelo de distribucin normal. Si el
ajuste es bueno, los puntos se deben distribuir aproximadamente segn una recta a
45. En la imagen vemos que en este ejemplo existe cierta discrepancia.

En cualquier caso siempre es adecuado efectuar una representacin grfica de tipo


histograma de los datos, y comparar el valor de la media y la mediana, as como
evaluar el coeficiente de asimetra y apuntamiento, adems de llevar a cabo una
representacin en escala probabilstica de la distribucin de probabilidad esperada
versus observada, como la de la figura.

Posibles soluciones cuando se rechaza la hiptesis de normalidad

Si rechazamos o dudamos de la normalidad de nuestros datos, existen varias


soluciones posibles:

Si la distribucin es ms apuntada que la normal (mayor parte de los valores


agrupados en torno de la media y colas ms largas en los extremos), se
debe investigar la presencia de heterogeneidad en los datos y de posibles
valores atpicos o errores en los datos. La solucin puede ser emplear
pruebas no paramtricas.

Si la distribucin es unimodal y asimtrica, la solucin ms simple y efectiva


suele ser utilizar una transformacin para convertir los datos en normales.

Cuando la distribucin no es unimodal hay que investigar la presencia de


heterogeneidad, ya que en estos casos la utilizacin de transformaciones no
es adecuada y los mtodos no paramtricos pueden tambin no serlo.

Una alternativa muy interesante a los mtodos paramtricos y a las pruebas


no paramtricas clsicas, la constituye la metodologa de estimacin
autosuficiente ya esbozada en otro artculo de esta serie.

Transformaciones para conseguir datos normales


La utilizacin de transformaciones para lograr que los datos se ajusten a una
distribucin normal es en muchas ocasiones la solucin ms natural, ya que existen
gran cantidad de parmetros biolgicos que tienen una distribucin asimtrica como
la de la figura de la izquierda, y que se convierten en aproximadamente simtricas
al transformarlas mediante el logaritmo.

Tenemos problemas con la transformacin logartmica ln(x) si la variable puede


tomar el valor 0, por lo que en esos casos, o incluso si existen valores muy
pequeos, ser adecuado emplear la transformacin ln(x+1). Cuando la desviacin
tpica de los datos es proporcional a la media o cuando el efecto de los factores es
multiplicativo, en lugar de aditivo, est indicado el uso de la transformacin
logartmica.

Otra transformacin posible es , que es aplicable cuando las varianzas son


proporcionales a la media, lo que ocurre a menudo cuando los datos provienen de
una distribucin de Poisson (recuentos).

Otra transformacin habitualmente empleada es 1/x, que tambin precisa que


sumemos una cantidad a cada valor si existen ceros.

Estas tres transformaciones comprimen los valores altos de los datos y expanden
los bajos, en sentido creciente en el siguiente orden: (la que menos), ln x, 1/x.

Si la concentracin de datos est, a diferencia de la figura anterior, en el lado de la


derecha y la cola en la izquierda, se puede utilizar la transformacin x, que
comprime la escala para valores pequeos y la expande para valores altos.

Cuando los datos son proporciones o porcentajes de una distribucin binomial, las
diferencias con una distribucin normal son ms acusadas para valores pequeos o
grandes de las proporciones, utilizndose entonces transformaciones basadas en

En todos los casos para los clculos estadsticos basados en la teora normal, se
utilizarn los valores transformados, pero despus para la presentacin de los
resultados se efectuar la transformacin inversa para presentarlos en su escala de
medida natural.

Ms abajo se proporcionan algunos enlaces sobre el tema de las transformaciones,


de fcil lectura.

Pruebas no paramtricas

Se denominan pruebas no paramtricas aquellas que no presuponen una


distribucin de probabilidad para los datos, por ello se conocen tambin como de
distribucin libre (distribution free). En la mayor parte de ellas los resultados
estadsticos se derivan nicamente a partir de procedimientos de ordenacin y
recuento, por lo que su base lgica es de fcil comprensin. Cuando trabajamos con
muestras pequeas (n < 10) en las que se desconoce si es vlido suponer la
normalidad de los datos, conviene utilizar pruebas no paramtricas, al menos para
corroborar los resultados obtenidos a partir de la utilizacin de la teora basada en
la normal.

En estos casos se emplea como parmetro de centralizacin la mediana, que es


aquel punto para el que el valor de X est el 50% de las veces por debajo y el 50%
por encima.

Vamos a comentar la filosofa de alguna de las pruebas no paramtricas y en los


enlaces se puede aumentar esta informacin.

Prueba de Wilcoxon de los rangos con signo

Esta prueba nos permite comparar nuestros datos con una mediana terica (por
ejemplo un valor publicado en un artculo).

Llamemos M0 a la mediana frente a la que vamos a contrastar nuestros datos, y sea


X1, X2 .. Xn los valores observados. Se calcula las diferencias X1-M0, X2-M0, ..., Xn-
M0. Si la hiptesis nula fuera cierta estas diferencias se distribuiran de forma
simtrica en torno a cero.

Para efectuar esta prueba se calculan las diferencias en valor absoluto |Xi-M0| y se
ordenan de menor a mayor, asignndoles su rango (nmero de orden). Si hubiera
dos o ms diferencias con igual valor (empates), se les asigna el rango medio (es
decir que si tenemos un empate en las posiciones 2 y 3 se les asigna el valor 2.5 a
ambas). Ahora calculamos R+ la suma de todos los rangos de las diferencias
positivas, aquellas en las que Xi es mayor que M0 y R- la suma de todos los rangos
correspondientes a las diferencias negativas. Si la hiptesis nula es cierta ambos
estadsticos debern ser parecidos, mientras que si nuestros datos tienen a ser ms
altos que la mediana M0, se reflejar en un valor mayor de R+, y al contrario si son
ms bajos. Se trata de contrastar si la menor de las sumas de rangos es
excesivamente pequea para ser atribuida al azar, o, lo que es equivalente, si la
mayor de las dos sumas de rangos es excesivamente grande.

Prueba de Wilcoxon para contrastar datos pareados

El mismo razonamiento lo podemos aplicar cuando tenemos una muestra de


parejas de valores, por ejemplo antes y despus del tratamiento, que podemos
denominar (X1,Y1), (X2,Y2), ... ,(Xn,Yn). De la misma forma, ahora calcularemos
las diferencias X1-Y1, X2-Y2, ... , Xn-Yn y las ordenaremos en valor absoluto,
asignndoles el rango correspondiente. Calculamos R+ la suma de rangos positivos
(cuando Xi es mayor que Yi), y la suma de rangos negativos R-. Ahora la hiptesis
nula es que esas diferencias proceden de una distribucin simtrica en torno a cero
y si fuera cierta los valores de R+ y R- sern parecidos.

Prueba de Mann-Whitney para muestras independientes

Si tenemos dos series de valores de una variable continua obtenidas en dos


muestras independientes: X1, X2, ... , Xn, Y1, Y2, ... , Ym, procederemos a ordenar
conjuntamente todos los valores en sentido creciente, asignndoles su rango,
corrigiendo con el rango medio los empates. Calculamos luego la suma de rangos
para las observaciones de la primera muestra Sx, y la suma de rangos de la
segunda muestra Sy. Si los valores de la poblacin de la que se extrajo la muestra
aleatoria de X se localizan por debajo de los valores de Y, entonces la muestra de X
tendr probablemente rangos ms bajos, lo que se reflejar en un valor menor de
Sx del tericamente probable. Si la menor de las sumas de rangos es
excesivamente baja, muy improbable en el caso de que fuera cierta la hiptesis
nula, sta ser rechazada.

Existen ms pruebas no paramtricas de entre las que a continuacin mencionamos


las ms habituales, remitiendo al lector interesado a cualquier libro bsico de
bioestadstica:

Prueba de Kruskal-Wallis para comparar K muestras

Prueba de Friedman para comparar K muestras pareadas (bloques)

Coeficiente de correlacin de Spearman para rangos

Prueba de rachas de Wald-Wolfowitz

http://www.seh-lelha.org/noparame.htm

Enlaces de inters

The normal distribution Douglas G Altman & J Martin Bland BMJ 1995;310:298
(4 Febrero)
Transforming data J Martin Bland & Douglas G Altman BMJ 1996;312:770 (23
March)
Transformations, means, and confidence intervals J Martin Bland & Douglas G
Altman BMJ 1996;312:1079 (27 April)
The use of transformation when comparing two means J Martin Bland & Douglas
G Altman BMJ 1996;312:1153 (4 May)
Algunas direcciones que permiten efectuar clculos de pruebas no
paramtricas:

Prueba de los signos

Contraste para la mediana de dos muestras independientes

Prueba de Wilcoxon para datos pareados

Prueba de Mann-Whitney para comparar dos muestras independientes


Otro enlace para esta prueba

Prueba de rachas de Wald-Wolfowitz

Prueba de Kruskall-Wallis

Prueba de Friedman

Coeficiente de correlacin de Spearman

Mtodos autosuficientes de estimacin y contraste de hiptesis.


Utilizacin de la simulacin y el mtodo de Monte Carlo en
bioestadstica

Preparado por Luis M. Molinero (Alce Ingeniera) Artculo en formato PDF

CorreoE: bioestadistica alceingenieria.net


Septiembre 2002
www.seh-lelha.org/stat1.htm

En el artcuo de este mes vamos a presentar otras tcnicas estadsticas de


estimacin y contraste de hiptesis, diferentes de la archiconocida metodologa
paramtrica y no paramtrica (aunque sta ltima quizs algo menos utilizada).
La idea es ampliar la cultura estadstica del lector que desconce su existencia, o
que ocasionalmente alguna vez lo ley en algn artculo y le son a chino, y
recordar las ideas a aquellos que ya las conocen, aunque solo sea porque es una
saludable inquietud intelectual mirar las cosas desde una nueva ptia.

Recordemos que los dos objetivos principales de la estadstica son, por un lado
la estimacin de un parmetro de una poblacin, a partir de los valores
obtenidos en una muestra, y por otro el contraste de hiptesis a partir de los
resultados observados en una muestra.

Plantearemos hoy otro enfoque distinto del habitual a ese tipo de problemas, y
para ello comenzaremos sirvindonos de un pequeo ejemplo.

En la siguiente tabla se presenta el valor de la PAS (media de tres lecturas) en


dos grupos de pacientes diabticos, con 10 pacientes por grupo

A 134 155 129 135 117 118 136 139 126 129

B 147 118 139 120 152 163 145 153 142 157

Medias

A 131.8

B 143.6

Diferencia -11.8

Para comparar ambos grupos la metodologa tradicional se basa en calcular la


probabilidad de observar una diferencia tan grande o mayor que la actualmente
encontrada (-11.8), suponiendo que ambas muestras se hayan extrado
aletoriamente de la misma poblacin. Es lo que se conoce como hiptesis nula.
Para ello suponemos una distribucin de probabilidad para los datos, la
distribucin normal o de Gauss. En realidad al no conocer tampoco la desviacin
tpica de la poblacin y estimarla tambin a partir de los datos de ambas
muestras, la distribucin de probabilidad que utilizamos es la t de Student, y a
partir de ella determinaremos que la probabilidad de una diferencia igual o ms
extrema que la observada es 0.058. Cuando esta probabilidad es muy pequea
(tradicionalmente menor que 0.05), en lugar de aceptar esa hiptesis de
igualdad -muestras extraidas de la misma poblacin- y por lo tanto obtencin de
un resultado improbable en nuestro estudio, preferimos rechazarla y concluir
que ambas muestras no proceden de la misma poblacin, o lo que es
equivalente, que la diferencia obtenida no parece razonable atribuirla al mero
azar.

En este caso hemos planteado un contraste bilateral: cuando no hacemos


ninguna presuncin del sentido de la diferencia y consideramos incialmente igual
de probable las diferencias en un sentido o como en el otro.

Tambin se puede expresar el resultado calculando el intervalo de confianza del


95 % para la diferencia de medias entre los grupos, que en este ejemplo resulta
ser -24.02 a 0,42.

Pero vamos a ver otras posibles formas de contrastar este tipo de hiptesis.
Podemos mezclar los 20 valores; supongamos que los escribimos en 20
papeletas y los introducimos en una urna, y extraemos al azar 10 papeletas por
un lado y otras 10 por otro, calculamos la diferencia de medias entre estas dos
muestras y anotamos si sta nueva diferencia es igual o mayor que la obtenida
originalmente o si, por el contrario, es menor. Volvemos a introducir las
papeletas en la urna y repetimos el proceso un gran nmero de veces.
Calculamos, repitiendo ese procedimiento, el porcentaje de las veces que
encontramos una diferencia igual o ms extrema que la obtenida realmente en
nuestro experimento. Si ese nmero es alto concluimos que la etiqueta grupo A
o B verdaderamente puede deberse al azar y que por lo tanto no hay diferencias
estadsticamente significativas entre los grupos, mientras que si ese nmero de
veces es pequeo, nuestro resultado es infrecuente, y por lo tanto preferiremos
rechazar la hiptesis de igualdad, y pensar que la presencia de diferencias es
ms plausible. Esta metodologa se conoce como pruebas de aleatorizacin.

Mediante un programa de ordenador se puede simular ese proceso de colocar los


20 valores en una urna y extraer papeletas al azar.

Pero adems, en este ejemplo concreto es posible considerar todos los conjuntos
diferentes de 2 muestras de 10 elementos, corresponde a C2010 combinaciones
de 20 elementos tomados de 10 en 10, que constituyen 184756 posibilidades, y
podemos calcular el nmero de entre ellas en las que la diferencia es igual o
mayor que la observada. Obviamente, tanto en el caso anterior en el que
constituiamos las muestras de forma aleatoria, como en el caso de que
enumeremos todas las posibilidades, lo haremos utilizando el ordenador. Pero
incluso con el ordenador si las muestras son grandes, el tiempo de clculo para
enumerar todas las posibilidades puede ser enorme y habr que acudir a la
primera situacin en la que generamos un gran nmero, aunque limitado, de
muestras aleatorias.

Utilizando el software que se referencia en uno los enlaces, generando 10000


muestras aleatorias, obtenemos para este ejemplo que en el 5.5 % de esas
muestras se encuentra una diferencia igual o mayor que la realmente observada,
lo que corresponde a un valor muy parecido al obtenido mediante el contraste
paramtrico (5.8 %).

Tambin es posible con esta filosofa calcular un intervalo de confianza para la


diferencia de medias, obteniendo a partir de esas 10000 muestras aleatorias el
siguiente intervalo (-23.81 : 0.33)

Hago notar que ahora hemos utilizado una tcnica estadstica para comparar las
dos muestras que no hace ninguna suposicin en cuanto a la distribucin de
probabilidad de la que proceden los datos.

Otro de los conceptos centrales de la estadstica es el de estimacin: cmo


obtener conclusiones generales de un colectivo a partir de una muestra y por lo
tanto disponiendo slo de parte de la informacin.

Una vez definido el parmetro que deseamos conocer, ya sea ste la media, la
mediana u otro, se trata de calcularlo a partir de los datos observados en
nuestra muestra y de cuantificar de alguna manera cmo de precisa es esa
estimacin; o dicho de otra forma, determinar hasta qu punto podemos
garantizar que lo que nosotros hemos observado es extrapolable al colectivo del
que se extrajo esa muestra.

La forma ms conocida y habitual de expresar la precisin de un parmetro


consiste en indicar un intervalo de confianza para un determinado nivel de
probabilidad. As el intervalo de confianza del 95% son aquellos dos valores, uno
inferior y otro superior, entre los que cabe esperar que se encontrar el
parmetro calcuado en 95 de cada 100 veces que se repita el experimento, con
una muestra del mismo tamao extrada de forma aleatoria de la misma
poblacin. En el clculo de ese intervalo de confianza interviene el tamao de
muestra, la dispersin de los datos en la poblacin (si sta es pequea la
precisin ser mayor). Por otro lado hay que tener en cuenta la distribucin de
probabilidad del parmetro, utilizndose habitualmente, aunque no siempre es
adecuado, la distribucin normal.

As en el caso de que se estime una media en una muestra de tamao n, el


procedimiento para el clculo del intervalo de confianza basado en la t de
Student, consiste en estimar la desviacin tpica de los datos s y calcular el
error estndar de la media

siendo entonces el intervalo de confianza para la media

Para la estimacin de un parmetro, es posible emplear una metodologa similar


a la explicada anteriormente para el contraste de hiptesis, mediante una
prueba aleatorizada, consistente en calcular las diferencias de cada valor con
respecto de la media y generar muestras de esas diferencias, en las que a cada
valor se le da signo positivo o negativo de forma aleatoria, y a partir de la
distribucin obtenida se calcula un intervalo de confianza, los valores que dejan
el 2.5 % a cada lado de esa distribucin.

En esta lnea basada en considerar que, en ausencia de cualquier otra


informacin respecto a la poblacin que no sea la contenida en la propia
muestra, la distribucin de los valores encontrados en una muestra aleatoria
constituyen la mejor orientacin en cuanto a la distribucin de esa poblacin,
encontramos otros mtodos de conseguir estimaciones, de los que vamos a
comentar los que se conocen en ingls como "bootstrap" y "jackknife".

El mtodo bootstrap aunque ya usado anteriormente, fue descrito de forma


sistemtica por Efron en 1979. El nombre alude al cordn de los zapatos,
recordando la imagen de alguien intentando salir del barro tirando del cordn de
sus propios zapatos, y consiste, si tenemos una muestra de tamao N, en
generar un gran nmero de muestras de tamao N efectuando un muestreo con
reemplazamiento de esos valores. Es como si metisemos los valores en una
urna, extraemos una papeleta, anotamos el resultado ,y volvemos a colocarlo en
la urna, y as hasta obtener N valores. En esa muestra calculamos el valor del
parmetro que estamos estimando. Y as repetimos el proceso un gran nmero
B de veces (por ejemplo 10000 o ms), con lo que obtenemos una distribucin
de valores para el parmetro en la que podemos calcular su dispersin (anlogo
del error estndar) y determinar unos lmites de confianza utilizando esa
distribucin.

El mtodo jackknife fue propuesto por Tukey en 1958 y en este caso el nombre
alude a esas navajas multiuso que son a la vez sacacorchos, abrelatas,
destornillador..., buenas para todo si no se tiene algo mejor a mano -siempre es
mejor abrir una lata con ellas que con una piedra, pero donde est un abrelatas
del "explorador"...-

Calculamos ahora el parmetro de inters en la muestra total de tamao N;


en este caso las diferentes muestras se van construyendo eliminado cada vez
una de las observaciones Xi y en ellas se calcula de nuevo el valor del parmetro
de inters , repitiendo el proceso para i=1 hasta N. Se obtiene lo que se
denomina pseudovalores:

Se llama estimador jackknife a la media de esos pseudovalores, y a partir de la


distribucin obtenida se calcula tambin su varianza y un intervalo de confianza
para el mismo.

Al no utilizar ms que los valores observados en la muestra, podemos denominar


a estos mtodos como autosuficientes.

La idea que subyace en alguno de los mtodos autosuficientes descritos es la de


generar a partir de los valores observados muestras aleatorias de acuerdo a un
modelo especfico que se est contrastando. Vamos a comentar esto un poco
ms.

Supongamos que no disponemos de la frmula para calcular intervalos de


confianza para la media m, calculada en una muestra de tamao N extrada de
forma aleatoria de una poblacin cuyos valores se distribuyen segn una funcin
de probabilidad normal o gaussiana de media desconocida, que es la que
pretendemos estimar. Estamos suponiendo por tanto un modelo de distribucin
normal con media M desconocida, y si pudiramos generar mediante un
programa, de acuerdo a ese modelo, un gran nmero de muestras aleatorias de
tamao N, a partir de la distribucin de esas muestras podramos calcular los
percentiles del 2.5 %, a un lado y a otro, para determinar as un intervalo de
confianza el 95 %. Si lo hacemos comprobaremos que los valores obtenidos
concuerdan con los que se calculan utilizando la frmula terica basada en las
propiedades de la distribucin normal.

La pregunta es cul es entonces la utilidad de estos mtodos, si disponemos de


una frmula terica?. La respuesta: que esa frmula terica la tenemos para
unos casos muy concretos, en nuestro ejemplo la media de datos extraidos de
una poblacin normal, mientras que el mtodo de simulacin nos permite
obtener estimaciones de forma ms general, para cualquier parmetro y
cualquier modelo que estemos planteando, siempre que a partir de l podamos
generar valores de forma aleatoria.
Esta metodologa de simulacin, generando a partir de un modelo valores
aleatorios, se conoce como mtodo de Monte Carlo (por los casinos y las
ruletas de ese bonito lugar de la costa mediterrnea), y las pruebas
aleatorizadas y las estimaciones "bootstrap" se pueden considerar casos
particulares de esta metodologa.

Cuando se dispone de una respuesta terica a un problema no tiene sentido


utilizar la simulacin de Monte Carlo, pero en ocasiones la solucin analtica de
algunos problemas es muy compleja y el nico camino posible es la utilizacin
de tcnicas de simulacin. Esto es algo que se viene empleando desde hace
mucho y con xito en problemas de ingeniera y tambin en estudios de biologa,
ciencias naturales, economa, y bastante menos en medicina.

Debido a que se trata de mtodos que slo son posibles gracias a la moderna
potencia de clculo de los ordenadores, ya que es preciso generar un elevado
nmero de muestras aleatorias, tambin se conocen como mtodos de uso
intesivo del ordenador (computer intesive methods).

Por curiosidad he efectuado una serie de bsquedas en Medline (29-9-2002)


obteniendo los siguientes resultados

Bsqueda N de referencias

"monte carlo" 7432

"monte carlo" AND hypertension 29

bootstrap 1204

bootstrap AND hypertension 10

jackknife 10

jackknife AND hypertension 0

resampling 333

resampling AND hypertension 1

"computer intesive method" 4

Tambin por curiosidad he efectuado una bsqueda simple en Lancet del trmino
"monte carlo", encontrando 18 artculos, y bootstrap 29 artculos.

En BMJ buscando "monte carlo"aparecen 33 artculos, y buscando bootstrap


aparecen 34.

Aunque son en general cifras pequeas vemos, una vez ms, que hay gente y
artculos para todo...

Enlaces interesantes
Download Trial version of RT 2.1
A DOS program for randomization methods. Written by Dr. Bryan F. Manly to
accompany his book, "Randomization and Monte Carlo Methods in Biology" published
by Chapman and Hall.

Resampling: The New Statistics


Julian L. Simon
Second Edition published October 1997

The Philosophy and Practice of Resampling Statistics


Julian L. Simon

Introduction to Monte Carlo Methods


Computational Science Education Project

Stanford Statistics department course on the bootstrap


Susan Holmes

Resampling Methods
Phillip Good

Resampling Statistics: Randomization and the Bootstrap


David C. Howell University of Vermont

NonParametric STATistical Testing


NPSTAT and NPFACT are a subset of programs developed to carry out computer
intensive analysis (such as randomization tests but not bootstrapping). They provide
nonparametric methods of null hypothesis testing.

Resampling methods
Chong-ho Yu

Indice de artculos