Anda di halaman 1dari 42

APUNTES DE EPIDEMIOLOGÍA Y ESTADÍSTICA

Osvaldo Cáliz Peña MD, MSc.


DEFINICIÓN Y USOS DE LA EPIDEMIOLOGÍA

Como una rama aplicada de la ciencia, la epidemiología es el estudio de la


distribución y los determinantes de los eventos o estados de salud relacionados
en poblaciones específicas, y la aplicación de los resultados del estudio al control
de los problemas de salud.

Entre los propósitos fundamentales de la epidemiología se destacan:

a. Describir el estado de salud de las poblaciones mediante la cuantificación de la


ocurrencia de las enfermedades y su impacto en la salud, la obtención de
frecuencias relativas (de salud y enfermedad) entre grupos y áreas y el
descubrimiento de tendencias importantes.
b. Explicar la etiología de las enfermedades por la determinación de sus factores
causales específicos y por el descubrimiento de su modo de transmisión.
c. Predecir la ocurrencia de las enfermedades y la distribución de los estados de
salud.
d. Contribuir a mejorar el estado de salud de las poblaciones mediante la
prevención de las enfermedades.
e. Evaluar el impacto de las políticas y programas de salud.

Para su gestión científica, la epidemiología se apoya en otras disciplinas como las


ciencias biomédicas, las sociales y las cuantitativas (estadística y demografía).
Básicamente los epidemiólogos examinan patrones de enfermedad en grupos o
comunidades y entonces tratan de comprender por que algunos individuos la
desarrollan y otros no.

TRANSICIÓN EPIDEMIOLÓGICA
EVOLUCIÓN DE LA MORTALIDAD POR GRUPO DE CAUSAS COLOMBIA 1960-1991

100%

90%

80% Lesiones intensionales


70%

60%

Mal definidas
Grupo II
50%
Crónicas y degenerativas Grupo III
Grupo I

40%

30%

20%

10%
Infecciosas y perinatales

0%
1960 1966 1975 1981 1985 1991

En Salud Pública se distinguen tres etapas en la prevalencia del tipo de


enfermedades definidas por el patrón de mortalidad: a) pestes y hambruna, b)
epidemias de enfermedades infecciosas y, c) enfermedades degenerativas y

Epidemiología 2
sociales. Este cambio en el patrón de la morbi-mortalidad se denomina transición
epidemiológica. En la gráfica anterior se ilustra este fenómeno en Colombia,
donde se observa como entre 1960 y 1991 se ha cambiado el patrón
epidemiológico, las enfermedades infecciosas y perinatales han disminuido a
expensas del aumento de las crónicas y las lesiones intencionales.

Ilustración 1. Métodos y Usos de la Epidemiología


DESCRIPTIVOS: Distribución de la Planeación de
enfermedad en servicios de salud
subgrupos de
población
(estudios de corte)

Identificación
de patrones

Asociación de Formulación de
variables hipótesis

ETIOLÓGICOS Relación temporo- Generación de


O ANALÍTICOS: espacial de las hipótesis para
variables prevenir
(Estudios de enfermedades
cohortes y de
casos y controles)

EXPERIMENTAL: Evaluación de Evaluación de


causalidad intervenciones
(ensayos
clínicos y
comunitarios)
El conocimiento de los grupos que sufren la enfermedad con mayor frecuencia -
grupos de alto riesgo- establece las bases para planear y organizar servicios de
salud que eviten el fenómeno de la polarización epidemiológica.

Los métodos descriptivos identifican patrones de asociación entre las variables


que caracterizan la enfermedad y su interpretación sugiere hipótesis para explicar
sus determinantes. Su contribución radica en que evalúa la magnitud del
fenómeno de salud y enfermedad y esclarece su historia natural.

Epidemiología 3
Los estudios etiológicos o analíticos -mejor conocidos- sirven para examinar la
significancia de las asociaciones o de las hipótesis; sus resultados permiten
reforzar o descartar hipótesis sobre medidas preventivas de las enfermedades.
La metodología experimental, al evaluar directamente la causalidad mediante la
manipulación artificial de las variables, es útil para evaluar intervenciones, tanto
en medicina clínica -ensayos clínicos- como en salud pública y administración de
servicios.

El propósito final de la epidemiología es la identificación de los factores que


contribuyen al desarrollo de la enfermedad con el fin de prevenir la aparición de
ésta; ellos se conocen como factores de riesgo porque a mayor exposición de la
población corresponde una mayor incidencia de la enfermedad, lo cual implica un
mayor riesgo de enfermar. Así, el hábito de fumar cigarrillos es un factor de riesgo
para el cáncer de pulmón, de la boca y de la vejiga, la enfermedad coronaria, la
aterosclerosis y el bajo peso al nacer.

La epidemiología también estudia los factores que previenen la aparición de la


enfermedad, los hábitos saludables, a los cuales se les conoce como protectores.
Los factores de riesgo se pueden clasificar en intrínsicos o propios del individuo,
derivados de su ambiente y de sus hábitos o estilo de vida.

1. MEDIDAS DE FRECUENCIA
En 1950 en Colombia las mayores causas de muerte eran las enfermedades
infecciosas y entre ellas, la diarrea; actualmente la lista la encabezan las
cardiovasculares y la violencia. Este patrón de mortalidad refleja cambios en las
condiciones ambientales y sociales del país, se pasó de las causas infecciosas
generadas por el ambiente, a las sociales. Esto lo sabemos por el análisis de las
tasas.
La principal unidad de medida en epidemiología es la tasa y se define como la
proporción o el subconjunto de un evento relacionado con la totalidad de sujetos
susceptibles de tenerlo. Esta definición comporta los siguientes puntos de las
tasas:
1. Como proporción la tasa involucra a un numerador y un denominador.
2. El numerador y el denominador deben estar claramente definidos de tal
manera que se sepa a que denominador se refiere la tasa y en que tiempo.
3. El numerador está contenido -es un subconjunto- en el denominador.
La tasa de mortalidad general, que a menudo provee la primera indicación de un
problema de salud, se expresa como:

El numero total de muertes durante un año en una poblacion expuesta


xk
La poblacion expuesta (el censo a mitad de añ o)

La tasa es un número real (con decimales) que expresa el riesgo de la aparición


de un evento en una población y se puede convertir a entero multiplicándolo por
una constante que puede se 100, 1.000, 10.000, 100.000 o un 1.000.000.
Otro ejemplos son las tasas de mortalidad, morbilidad, incapacidad específicas
por edad, sexo, ocupación, lugar y por exposición a algún factor sospechoso de

Epidemiología 4
causar un problema de salud. La natalidad y la fecundidad también se expresan
como tasas.
La comparación de tasas definidas entre diferentes subgrupos de individuos
puede dar pistas sobre la existencia de un problema de salud y orientar el análisis
de las condiciones bajo las cuales se produce el problema.

Riesgo
El riesgo, o incidencia acumulada, es una medida de la ocurrencia de casos
nuevos en una población. En otras palabras, el riesgo es la proporción de
individuos no afectados, que en promedio, contraerán la enfermedad de interés
en un período de tiempo especificado, el período de riesgo, y se expresa:

Casos nuevos
R= x 100
Personas expuetas

Ejemplo. Para estimar el riesgo de adquirir una infección hospitalaria el


investigador estableció el criterio de una infección nosocomial como la infección
documentada por cultivos, que no estaba presente al ingreso del paciente al
hospital, ni en período de incubación (que usualmente aparecen 48 horas
después de la hospitalización) y que se desarrolló durante la estancia y al menos
48 horas después de su salida. De 5031 pacientes estudiados 276 se infectaron:

276
R x 100  5.48%
5036

En este ejemplo el período de riesgo fue de 48 horas después del ingreso y 48


horas después del egreso.

Prevalencia
La prevalencia indica el número de casos existentes en una población. En un
estudio para evaluar el uso de la cama hospitalaria se realizó un encuesta para
definir si cada paciente hospitalizado reunía criterios válidos para su permanencia
en el hospital. El día del estudio se encontró que 75 pacientes de un total de 800
no justificaban su estancia en la institución. La tasa de prevalencia de punto
(para ese día) del mal uso de las camas fué:
75
P x 100 = 9.4%
800

Incidencia
La tasa de incidencia mide la velocidad con que aparecen los casos nuevos de
una enfermedad en una población. La tasa de incidencia es una tasa de riesgo
que se calcula con base en el tiempo que cada individuo contribuyó al período de
riesgo. En el ejemplo citado de la infección hospitalaria los 5036 pacientes
permanecieron en observación o contribuyeron con 127.859 días-pacientes o sea
127.859/5036 = 25.4 días en promedio. La tasa de incidencia de infecciones
puede estimarse como:

Epidemiología 5
276
I  0.00215 casos / dias - pacientes
127.859

y mejor, multiplicando por mil, la tasa de incidencia es de 2.1 por 1.000 pacientes-
días

Tasa de mortalidad estandarizada


La tasa de mortalidad estandarizada es la razón entre el número de muertes
observadas y el número de muertes esperadas en una población:

Numero de muertes observadas


TME =
Numero de muertes esperadas

La TME sirve para investigar si se presenta un exceso de muertes por


determinada enfermedad entre una población definida y la población general.
Ejemplo la TME por enfermedad coronaria o un cáncer entre un grupo
ocupacional y la población general.

En conclusión, la prevalencia mide los casos existentes en un momento


definido, el riesgo, la incidencia acumulada y la tasa de incidencia la densidad
de la incidencia. Estos indicadores se utilizan para medir la frecuencia de las
enfermedades, su asociación con factores de riesgo y la potencialidad del
impacto.

2. ESTUDIOS DESCRIPTIVOS
Los estudios descriptivos constituyen -a menudo- la primera aproximación para
dilucidar las características de una enfermedad. Pertenecen, junto con los
métodos analíticos, a la categoría de los estudios observacionales, en donde el
investigador no interviene o altera artificialmente variable alguna del fenómeno
natural, solo se reduce a observarlo mediante la interposición de una matriz de
interpretación de teorías y métodos.

El estudio descriptivo permite caracterizar o elaborar el patrón de un fenómeno,


es un método para analizar sistemáticamente los problemas de salud. Se
fundamenta en la teoría de que las enfermedades no ocurren al azar, obedecen a
factores de riesgo y condicionantes; así, se explica la variabilidad en el riesgo de
adquirir las enfermedades por la exposición diferencial a sus factores o por
diferencias en la susceptibilidad o por ambos. Por ejemplo en el estudio de la
tuberculosis se tendrían tres preguntas básicas:

1. Quién desarrolla la tuberculosis pulmonar


2. Donde se presentan los casos de tuberculosis
3. Cuando ocurre la tuberculosis

Estas tres preguntas sirven de base para hacer un estudio descriptivo de la


tuberculosis, sus respuestas caracterizan a la enfermedad términos de la
persona, el lugar y el tiempo, que constituyen las herramientas epidemiológicas

Epidemiología 6
para el estudio descriptivo. Equivale a vaciar o a distribuir la enfermedad en los
atributos de estas variables:

Persona: edad, sexo, ocupación, grupo étnico, estado civil, ingreso económico y
todas las que se presuman que puedan estar asociadas con la enfermedad.

Lugar: reúne a todas las variables relacionadas con la procedencia o localidad


donde se generan los casos: urbano, rural, región, barrio, sección, altitud, clima,
etc.

Tiempo: el período o la época de ocurrencia de los casos en minutos, horas,


semanas, meses, años, décadas, siglos.

Las tasas y las unidades de medida son los indicadores para distribuir la
enfermedad en las variables. Ilustración 2, 3 y 4.

Ilustración 2. Incidencia reportada de la tuberculosis en una población por


edad en 1989. Incidencia por 100.000 personas-año

GRUPOS DE EDADES Nº DE CASOS (EN MILES) INCIDENCIA

0-4 687 3.7

5-14 447 1.3

15-24 1.616 4.3

25-44 7.719 9.8

45-64 5.861 12.7

65 y + 6.092 20.1

En la distribución por edad se nota como las tasas de incidencia identifican al


grupo de alto riesgo, mientras que los números absolutos confunden el análisis.

Ilustración 3. Incidencia reportada de la tuberculosis en una población por


género en 1989 Incidencia por 100.000 personas-año

GENERO INCIDENCIA

Hombres 12.3

Mujeres 6.2

El ejemplo de la tuberculosis se podría continuar analizando para caracterizarla


mejor en función de otras variables como el lugar, el estrato social o el ingreso
económico de los casos (enfermos), alcoholismo, ocupación, estado nutricional,
hacinamiento, compromiso inmunológico. Por antonomasia a la caracterización
de una enfermedad se le conoce como la "epidemiología" de la misma.

Epidemiología 7
Con este método se busca establecer asociaciones entre la enfermedad y las
variables para formular hipótesis de causalidad. Por ejemplo, el factor de riesgo
hipotético -la variable independiente asociada con la enfermedad- se puede medir
en diferentes poblaciones y compararlo con la incidencia de la enfermedad en
estudio. Este es un estudio ecológico o de correlación porque la investigación
determina en que grado las dos variables (dependiente e independiente) están
relacionadas.
Los estudios descriptivos pueden ser de corte, como las encuestas y,
longitudinales cuando se le hace seguimiento al problema a lo largo del tiempo
(serie cronológica o tendencia secular).

Ilustración 4. Incidencia de la tuberculosis, todas las edades


Manizales 1983-1994. Tasas por 100.000 hbts.

120
100
80
60
40
20
0

Tomado de: Dr. Darced Marino Rincón P.y Dr. Jesús Bernardo Gellego M,
Perfil epidemiológico local de Manizales, Congreso Internacional sobre
Prevención en Salud, Memorias, Medellín Colombia, junio 1-3 de 1994

3. CAUSALIDAD
Cuando se analizan los estudios se buscan relaciones o asociaciones entre las
variables, su tendencia a presentarse juntas en tiempo y en espacio. Dos
variables X y Y se encuentran asociadas cuando la tendencia a estar juntas es
mayor que lo esperado por el azar, entonces surge la pregunta ¿ es X la causa
de Y ?. El hecho de encontrarse juntas no implica relación causal entre las dos.
Solo vemos la contiguidad y sucesión entre ambas pero no la conexión necesaria,
ésta última solo la inferimos por la repetición de la conjunción de las variables en
tiempo y espacio.

La estadística nos ayuda a encontrar las asociaciones y a evaluar su magnitud


con las pruebas de hipótesis en la inferencia. Los cánones de inducción de John
Stuart Mill ordenan el pensamiento para la formulación de hipótesis causales con

Epidemiología 8
sus métodos de la concordancia, la diferencia, la variación concomitante y el
residuo.

La incertidumbre y la dificultad para encontrar la conexión causal radica en la


complejidad de las interrelaciones del mundo real, los fenómenos son
multivariables y multicausales. La causalidad es un problema de todas las
ciencias, su arte consiste en formular hipótesis bien sustentadas y contrastarlas
con la realidad mediante diseños concretos.

Un factor de riesgo puede ser causal en el desarrollo de una enfermedad si una


variación en la frecuencia o en la intensidad con que éste se presenta produce un
cambio en la frecuencia de dicha enfermedad.

Para lidiar con este problema de establecer la causalidad, la epidemiología


dispone de algunas estrategias como: simplificar las condiciones de la
observación aislando y controlando un segmento de la realidad mediante los
diseños de estudios analíticos y experimentales; limpiar el modelo causal de
variaciones extrañas por el control de variables de confusión; probar las
asociaciones elaborándolas en el análisis; estimar la significancia de la asociación
en términos de probabilidad con la inferencia estadística; evaluar la experiencia
acumulada con las evidencias de otros estudios y finalmente considerar la
plausibilidad biosocial de la causa supuesta.

Para aplicar estas estrategias se debe tener un buen conocimiento del problema
en estudio e irle cerrando el campo desde lo general hasta lograr especificar las
relaciones.

En síntesis, en una asociación se deben considerar variables independientes,


dependiente e interviniente. En los estudios para investigar la causa del SIDA se
elaboró la siguiente asociación que orientó las medidas de prevención en la
transmisión sexual:

La edad, el sexo y hábito sexual = Variables independientes


La promiscuidad sexual = Variable interviniente o explicativa
La infección por el VIH = Variable dependiente

4. ESTUDIOS ANALÍTICOS
Los estudios analíticos y experimentales son diseños que permiten aislar y
controlar un segmento de la realidad para examinar con mayor facilidad las
asociaciones (las hipótesis del complejo de la causalidad).
Los diseños analíticos "observan" el modelo causal de la realidad sin intervenirlo.
En cambio, en los experimentales el investigador reproduce el modelo para
modificarlo y explicar su causalidad.
Existen dos clases de diseños analíticos básicos: los de casos y controles y los
de cohortes. Estos diseños no prueban la causalidad pero suministran evidencias
de la asociación que permiten tomar medidas de salud pública.

Epidemiología 9
5. CASOS Y CONTROLES
Este diseño se fundamenta en comparar a un grupo de enfermos con
determinada enfermedad (casos) contra un grupo de personas sanas (controles)
frente a una característica o factor sospechoso de estar causalmente relacionado
con esa enfermedad. La teoría que respalda a estos estudios se fundamenta en
que los casos de una enfermedad concentran la distribución del factor causal. En
un estudio sobre la asociación entre la toma de anticonceptivos hormonales y la
enfermedad tromboembólica en mujeres, se encontró que mientras en la
población general solo el 8% tomaban los anticonceptivos, los casos tenían
antecedentes del 15% de ingesta.
La característica distintiva del diseño de casos y controles radica en que el
investigador parte del efecto -la enfermedad- y se devuelve a determinar la
exposición -la causa sospechosa-. Desde el punto de vista del proceso causal es
un estudio retrospectivo:

Ilustración 1. Estudio de casos y controles

Selección de los casos


Uno de los primeros pasos es seleccionar la fuente de los casos e identificarlos.
Idealmente se deberían tomar todos los casos de una población conocida, los
casos nuevos y compararlos con una muestra de la población sana. Pero como
en la práctica esta estrategia es excepcional, lo mejor es identificar una fuente de
casos como un hospital, una clínica o una organización de salud con una
población de referencia definida (para los casos y los controles) y tomar una
muestra. En el ejemplo de la enfermedad tromboembólica los casos se
obtuvieron de los hospitales del Seguro Social en varios países.
Luego se elabora una definición del caso para el estudio, especificando los
criterios para que la definición tenga la suficiente sensibilidad y especificidad.

Selección de los controles


La muestra para los controles debe tomarse de la población de referencia que dió
origen a los casos para que sea válida la comparación con respecto al factor de

Epidemiología 10
exposición. Las fuentes para los controles pueden ser compañeros laborales de
los casos, vecinos, familiares, pacientes del mismo hospital que consulten por
otras enfermedades distintas a la de los casos y que no estén relacionadas con el
factor de exposición sospechoso, tampoco pacientes crónicos.
La selección de los controles es un paso de mucho cuidado en este tipo de
estudios, porque los casos y los controles deben proceder de la misma población
de referencia y ser lo mas parecidos entre si para evitar los sesgos que
confundan o invaliden el estudio.

Control de sesgos y variables de confusión


En toda investigación se presentan factores extraños que pueden conducir a
resultados sesgados o confusos, para eliminarlos o minimizar su influencia el
investigador busca obtener el mejor diseño para su estudio. Las siguientes
prácticas metodológicas se utilizan para prevenir el efecto de los factores
extraños que pueden alterar los resultados.

1. El tamaño de la muestra. En todos los diseños (descriptivos, analíticos y


experimentales) se necesita un número suficiente de sujetos para que la
observación de la relación entre las variables de exposición (independientes) y
la enfermedad (dependiente) sea válida. El tamaño de la muestra se calcula
con base en el diseño y el factor principal del estudio, los programas de
computador actuales facilitan este cálculo (EPI INFO, EPIDAT, SPSS).

2. Aleatorización. La escogencia de los participantes en el estudio o su


asignación a determinado grupo debe hacerse, en lo posible, al azar para
eliminar el sesgo de la selección. Este procedimiento es estricto en los
ensayos clínicos (experimentales).

3. Equiparamiento. Mas usado en los estudios de casos y controles, el


equiparamiento consiste en parear o igualar los controles con los casos frente
a una misma variable. Ejemplo: sexo, edad, raza, lugar.

4. Restricción en el diseño del estudio. Consiste en especificar criterios de


inclusión a los sujetos del estudio para controlar variables extrañas. Ej:
restringir los casos y controles a un solo sexo, rango de edad.

5. Control en el análisis. En la etapa de análisis del estudio se pueden neutralizar


variables de confusión, las que resultan mezcladas con la variable
dependiente, mediante técnicas de control como la estratificación y el ajuste o
estandarización.

6. Modelamiento matemático en el análisis. Este procedimiento se basa en la


construcción de modelos matemáticos de análisis de regresión multivariada
para relacionar la variable dependiente con las independientes y las variables
extrañas.
Cada una de estas técnicas tiene sus ventajas y desventajas, en los posible se
debe tomar una muestra de tamaño adecuado, aleatorizar y controlar en el
análisis; en casos especiales usar el equiparamiento o el modelaje matemático
que son mas costosos.

Epidemiología 11
Determinación de la exposición
Una vez que los casos y los controles se han seleccionado, se procede a obtener
la información de la exposición al factor en estudio y a otras exposiciones en
ambos grupos. La fuente para obtener esta información pueden ser entrevistas
individuales a los casos y a los controles, ojalá hechas por personas que
desconozcan a que grupo pertenece el entrevistado; registros médicos u
ocupacionales; marcadores biológicos, que son los mas objetivos. La finalidad
es determinar con la mayor precisión y objetividad las variables independientes
objeto del estudio.

Cuando la información del factor de exposición se debe obtener por


interrogatorio, es conveniente estandarizar con cuidado los criterios para las
preguntas, monitorizar las entrevistas y entrenar a los entrevistadores para que
los datos se recojan de la misma manera en los caso y los controles. Nunca
sobran las medidas que se tomen para evitar los sesgos en la información.

Análisis
El objetivo del análisis consiste en evaluar la exposición de los casos y los
controles a la característica en estudio; sea la
Ilustración 2 el resumen tabulado de cualquier estudio de casos y controles:

Ilustración 2. Resumen tabulado de un estudio de casos y controles


Condición¡Error! Expuestos No expuestos Total
Marcador no
definido.
Casos a b a+b
Controles c d c+d
Total a+c b+d a+b+c+d

La proporción de exposición entre los casos está dada por: a/(a+b)


La proporción de exposición entre los controles es igual a: c/(c+d)

Al efectuar los cálculos el investigador se hace dos preguntas: ¿existe una


diferencia entre las dos proporciones?, ¿Acaso la diferencia observada podría
deberse al azar?.

La respuesta a las dos preguntas la suministra la estadística con la prueba del chi
cuadrado que evalúa si las dos categorías de clasificación (proporciones de
exposición) son independientes. La fórmula general es:

2 
 (O  E )
i i
2 Comentario [oc1]:

Ei
siendo la fórmula de Mantel-Hansel la mas usada:

Epidemiología 12
( n  1 )( ad  bc )2
X
( a  b )( c  d )( a  c )( b  d )

Si el valor del chi cuadrado, así calculado, en el nivel de significancia del 0.05 es
igual o mayor a 3.84 se considera significante, es decir, que la exposición entre
las dos categorías es diferente y puede obedecer a una relación causal de la
exposición con los casos (ver capítulo de inferencia estadística).

El exceso de riesgo (odds ratio) es una estimación de la asociación entre la


exposición y la enfermedad, realmente estima el riesgo relativo usado en los
estudios de cohortes. Su fórmula es:

OR= ad/bc; los valores mayores que 1 indican asociación

6. ESTUDIOS DE COHORTES
Mientras los estudios de casos y controles evalúan la causa partiendo del
efecto, los estudios de cohortes son prospectivos, parten de la causa para
evaluar el efecto, en el sentido de observar como en un grupo de individuos
expuestos a un factor se presenta un evento de salud. Es un estudio longitudinal.
Ej., un estudio de cohorte de niños expuestos a asfixia neonatal entre 1994 y
1996 y la evaluación subsecuente del daño cerebral siete años después,
comparando la incidencia de esta enfermedad con otra cohorte de niños nacidos
en la misma época pero sin exposición a la asfixia en su nacimiento, Ilustración
3:

Ilustración 3. Estudio de Cohortes

Epidemiología 13
En la Ilustración 3 se comprende: que hay dos cohortes, una de niños expuestos
a asfixia neonatal (apgar bajo) y otra de niños no expuestos (apgar alto); el
estudio se inicia con el nacimiento de los niños; las dos cohortes se someten a
seguimiento para comparar la incidencia del daño cerebral entre los expuestos y
los no expuestos a la asfixia. Se partió de la exposición para evaluar el efecto, es
prospectivo en la relación causal.

Ocasionalmente, el estudio de cohortes es retrospectivo en el tiempo. Se utiliza


información sobre exposición previa de los sujetos, consignada en registros
médicos, ocupacionales, seguros, hábitos, residencia, etc y se evalúa la
incidencia del efecto (la enfermedad). En este diseño puede suceder que tanto la
exposición como el efecto hallan ocurrido en el pasado. Ej, en dos fábricas A y B
se realizó un estudio de cohorte retrospectivo, en la fábrica A se les brindaba a
los trabajadores una dieta rica en grasas saturadas y en la B una dieta hipograsa.
Esta costumbre se había conservado en las fábricas por los últimos veinte años.
Con base en los registros médicos se comparó la incidencia de la enfermedad
coronaria en las dos fábricas; fué un estudio corto que no tuvo seguimiento
porque el experimento natural se había completado en las dos cohortes.
Ambos diseños, prospectivos y retrospectivos del estudio de cohortes tienen
fortalezas y debilidades, siendo las mas importantes el tiempo del estudio, los
costos y la confiabilidad de la información.

Selección de las cohortes


La selección de las cohortes está influenciada por varios factores, como el tipo de
exposición investigada, la frecuencia de la exposición, la frecuencia del efecto, la
accesibilidad de los sujetos. Entre las consideraciones que deben tenerse en
cuenta se destacan:

1. La muestra de las personas no expuestas debe tomarse de la misma


población fuente o de referencia de las expuestas.
2. Al inicio del estudio las dos cohortes deben estar libres de la enfermedad en
estudio y ser igualmente susceptibles a desarrollarla.
3. Las características de las dos cohortes deben ser homogéneas excepto por la
exposición de interés.
4. En las dos cohortes la información sobre la exposición y el efecto debe se
equivalente.
5. Los dos grupos deben estar disponibles y accesibles al seguimiento.
6. El tiempo de seguimiento para las dos cohortes debe ser igual.

Análisis
El análisis del estudio de cohortes tiene como objetivo comparar la incidencia del
efecto (enfermedad en estudio) entre las dos cohortes:
Sea:
PI = Proporción de incidencia entre los expuestos
PIo = Proporción de incidencia entre los no expuestos

Objetivo del análisis: PI vs PIo Hipótesis de nulidad Ho: PI = PIo

Epidemiología 14
En la tabla de contingencia (2x2) los cálculos serían: Ilustración 4

Ilustración 4. Tabla de contingencia para el estudio de cohortes

Condición Expuestos No expuestos Total


Enfermos A B A+B
No enfermos C D C+D
Total A+C B+D A+B+C+D

PI = A/(A+C) vs PIo = B/(B+D)

Estas expresiones indican el riesgo de sufrir la enfermedad en cada cohorte. El


investigador se pregunta ¿Existe una diferencia? ¿Si existe, podría deberse al
azar? Nuevamente la prueba estadística del chi cuadrado ayuda a obtener una
respuesta.
La fuerza de la asociación de la exposición con la enfermedad se puede medir
con el indicador de riesgo relativo, que es igual a

RR = PI/ PIo

Si los dos grupos tienen el mismo riesgo de enfermar, entonces el RR = 1 y


significa que no existe asociación. Si el riesgo entre los expuestos es mayor que
en los no expuestos, entonces el RR será >1 indicando asociación. Un RR <1
señala un efecto protector entre los expuestos.

Otro indicador que permite obtener una estimación de la asociación es la


proporción del riesgo atribuible entre los expuestos, PRAE:

PRAE = PI-PIo/PI

El riesgo atribuible poblacional, PRAP mide el impacto potencial que tendría


una medida de salud pública en la incidencia de la enfermedad si se previniera la
exposición al factor causal (del estudio):

PRAP = PIt-PIo/PIt; PIt = Propoción de incidencia total en el estudio.

Comparación de las tasas.


El estudio de cohortes también se puede analizar con base en la incidencia o la
mortalidad en vez de los riesgos, el indicador es una razón de tasas (RT):

Tasa del hecho final del estudio entre los expuestos


RT 
Tasa del hecho final del estudio entre los no expuestos

La tabla de datos resumen para este cálculo quedaría así:

Epidemiología 15
Expuestos No expuestos Total

Número de hechos A B A+B


finales

Tiempo—persona TP TP TP
observación
A TP
RT 
B TP
El tiempo-persona estará medido, de acuerdo con el estudio, en días, meses o
años.

7. ESTUDIOS EXPERIMENTALES
El estudio experimental es el método científico por excelencia de las ciencias
empíricas, porque le permite al investigador establecer en forma controlada las
relaciones causales entre los fenómenos. Es un estudio de intervención porque
se manipulan artificialmente las variables del estudio, su mayor aplicación está en
el laboratorio de las ciencias básicas médicas. Una variación del método se usa
en programas comunitarios.

El diseño experimental es el método mas ampliamente aceptado para comparar


el beneficio de tratamientos (intervenciones) alternativos; su principal fortaleza
radica en la asignación aleatoria de los grupos de estudio para balancear los
factores que pueden sesgar los resultados.

El primer paso para diseñar el estudio es formular los principales interrogantes de


la investigación: la hipótesis, los tipos de intervención que serán comparados,
parámetros, naturaleza de los resultados que serán medidos, el número de
sujetos en cada grupo de intervención y, los criterios de elegibilidad para la
inclusión (de los sujetos) al estudio.

El parámetro que se mide para resolver el interrogante mas importante del


experimento se denomina la condición final primaria. Las siguientes preguntas
deben considerarse para determinar la condición final primaria:
1. ¿Cuales son las condiciones finales del estudio?
2. ¿Cuales de éstas pueden ser medidas de una manera razonable?
3. ¿Que limitantes prácticas existen, tales como el tamaño poblacional, los
recursos financieros, la factibilidad para controlar a los grupos durante el
tiempo del estudio?
En un estudio se puede seleccionar más de una condición final para evaluar la
eficacia de la intervención; por ejemplo, calidad de vida, tiempo de supervivencia,
porcentaje de pacientes vivos, tasa de complicaciones, porcentaje de
modificación de un riesgo o la incidencia de un problema (aplicación del
porcentaje del riesgo atribuible poblacional).

Epidemiología 16
La condición final primaria se utiliza para formular las hipótesis en la inferencia
estadística del análisis de los resultados. En un estudio para evaluar la
"superioridad" de dos tratamientos para el infarto del miocardio, se comparó la
estreptoquinasa con el activador del plasminógeno y se seleccionó a la
supervivencia a un año junto con la fracción de eyección ventricular izquierda
como condiciones finales de medida:

Ho: hipótesis de nulidad p1: porcentaje de supervivencia por la


estreptoquinasa
Ha: hipótesis alterna p2: porcentaje de supervivencia por el
plasminógeno
FEV: fracción de eyección ventricular x1: promedio de FEV para la
izquierda estreptoquinasa
x2: promedio de FEV para el
plasminógeno

Ho : p1 = p2 Ha : p1 = p2 Ho : x1 = x2 Ha : x1 = x2

Tamaño de la muestra
En este y en todos lo estudios la muestra debe tener un tamaño suficiente para
que la probabilidad de obtener resultados significativos sea alta. Por ejemplo si se
hace un experimento con una muestra pequeña y no se encuentra diferencia
entre los grupos no se ha ganado ninguna información nueva, mas bien se
desperdiciaron los recursos.

Al final del estudio los datos se analizan estadísticamente para decidir si se


acepta o se rechaza la hipótesis de nulidad (al rechazarla se acepta la hipótesis
alterna); pero el punto importante es que uno nunca tiene la certeza de actuar
correctamente al aceptar o rechazar la hipótesis de nulidad. De hecho, se corre el
riesgo de cometer uno de las dos clases de errores en la investigación: se puede
rechazar incorrectamente la hipótesis de nulidad, concluir que existe una
diferencia cuando en efecto no la hay. Este es el error de tipo I. O se puede
aceptar la hipótesis de nulidad siendo falsa, creer que no existe una diferencia
cuando en realidad si la hay. Este se conoce como el error de tipo II. Cada uno
de estos errores conlleva sus consecuencias,

Ilustración 5:

Epidemiología 17
Ilustración 5. Estado verdadero o natural del efecto de la intervención

No hay efecto Existe efecto

Decisión basada en Aceptar Ho Correcto Error tipo II

la muestra del estudio Rechazar Ho Error tipo I Correcto

De la decisión que se tome con la hipótesis de nulidad se producirán las


siguientes consecuencias:

1. Si se acepta la hipótesis de nulidad siendo falsa (error tipo II) se descartará el


tratamiento o la intervención. Si se trata de un medicamento se dejarán de
tratar a los pacientes que podrían beneficiarse con él.
2. Si se rechaza la hipótesis de nulidad incorrectamente (error tipo I) se
recomendará el uso de un tratamiento o intervención inútil. Presumiendo que
sea una droga poco tóxica no se le hará daño a los pacientes pero tampoco los
mejorará. En cambio el error retardará la investigación de otras intervenciones.

El error de tipo I también se conoce como error alfa o nivel de significancia y el


error de tipo II como error beta: El tamaño de la muestra se calcula teniendo en
cuenta la probabilidad de cometer alguno de estos dos errores y la única manera
de minimizarlos es aumentar el tamaño de la muestra.
Se denomina el poder del estudio a la probabilidad de encontrar una diferencia o
un efecto en el estudio cuando en realidad existe y equivale a 1 - error beta. El
cálculo de la muestra involucra los conceptos de los errores, el poder, la
diferencia que se pretende encontrar entre los grupos y la distribución de
muestreo en que se encuentra la unidad de medida de la condición final del
estudio. Los programas estadísticos por computador facilitan el cálculo de las
muestras: EPI INFO, SPSS, EPIDAT, SYSTAT, entre los más conocidos.

Diseño del estudio


En el plan del estudio experimental se identifican las siguientes etapas:

1. Existe una población o universo de referencia beneficiaria de los resultados del


estudio. Este universo debe identificarse previamente. Ej., enfermos de SIDA
afiliados a una EPS.
2. Del universo de referencia se extrae una muestra para el estudio. Esta muestra
debería ser probabilística. Ej, pacientes con SIDA de una IPS.
3. Los pacientes elegibles serán asignados al azar al grupo experimental o al de
control. Al azar significa que en la asignación no mediará ningún criterio
diferente al aleatorio, así, todos los pacientes tendrán la misma probabilidad
de entrar al grupo control o al experimental. Esto se logra mediante el
procedimiento de muestreo aleatorio (tabla de números aleatorios, rifa).

Epidemiología 18
4. Al grupo experimental se le aplica la intervención y al de control un placebo o
un tratamiento alterno de efecto conocido. Es deseable que el tratamiento
experimental y el placebo o el alterno sean lo mas parecidos posibles para
evitar sesgos.
5. Cuando las circunstancias del estudio lo permiten es conveniente evitar que
los participantes sepan en que grupo se encuentran (simple ciego) y mejor si
se logra que los evaluadores de los resultados tampoco lo sepan (doble ciego).
6. Seguimiento de los grupos durante el período especificado para que se
produzcan los efectos de las intervenciones.
7. Medición de las condiciones finales en los grupos.
8. Evaluación y crítica de los resultados.
9. Análisis e interpretación.
10.Consideraciones sobre la aplicación de los resultados y consistencia con otros
estudios.

La Ilustración esquematiza el diseño experimental:


EVALUACIÓN DE LAS
Grupo experimental
CONDICIONES FINALES

POBLACIÓN DE MUESTRA DE
REFERENCIA PARTICIPANTES

EVALUACIÓN DE LAS
Grupo de control
CONDICIONES FINALES

DIRECCIÓN DEL ESTUDIO

Ilustración 10. Diseño experimental


Con base en este diseño clásico existen otros diseños alternos que varían en la
fuerza de la interpretación de los resultados. Sea X la exposición del grupo a la
variable experimental o intervención y O la observación o medición del resultado
o condición final del estudio. Se tendrán entonces los siguientes diseños:
a. El cuasiexperimental: O1 X O2, medición previa, intervención y medición
posterior.
b. Comparación estática: X O1 un grupo se interviene y se evalúa; en otro grupo
O2 control se evalúa lo mismo.

c. El estudio longitudinal: O1 X1 O2 --- O3 X2 O4 --- O5 X3 O6. Util en


programas experimentales a largo plazo en donde se
van introduciendo y evaluando intervenciones. Este
diseño es muy productivo en programas de servicios.

Epidemiología 19
Análisis
El estudio experimental es prospectivo en la relación temporal de causa-efecto y
se puede analizar como un diseño de cohortes. El análisis debe incluir:
1. La comparación de los resultados entre los grupos ¿Hubo alguna diferencia?

Evaluación del estudio experimental

Tiempo

1 2

Grupo experimental 1 2 d = 2 - 1

Grupo control 1 2 d1 = 2 - 1

Ho: d - d1 = 0

Los tipos de comparación mas usados son:


1. comparar los riesgos entre los grupos, comparar un evento en el tiempo
(análisis de supervivencia) y comparación de medidas tales como la medias,
porcentajes y las varianzas.
2. El uso de pruebas estadísticas para verificar la significancia de los resultados.
Chi cuadrado, diferencia de medias, diferencia de proporciones, ANOVA,
correlación y regresión.
3. La validez del estudio ¿Son suficientes los datos para justificar los resultados?

El código de ética médica y normas internacionales (protocolos de Helsinky) han


establecido guías y regulaciones éticas para proteger los derechos y la salud de
los sujetos participantes. El investigador debe cumplir con estas normas. Ej., la
participación de las personas en el estudio es voluntaria (consentimiento
informado).

8. OTRAS APLICACIONES DE LA EPIDEMIOLOGIA


Esencialmente el método epidemiológico es un método de investigación para el
entendimiento de la enfermedad y de sus factores de riesgo en el campo médico
y de la salud pública. En la administración de los servicios de salud se dan otras
aplicaciones del método como la evaluación de las pruebas diagnósticas o de
tamizaje, el estudio de epidemias, la vigilancia de la salud y la evaluación del
impacto de los programas.

Vigilancia de la Salud
La vigilancia es un sistema de información específico (recolección, análisis e
interpretación) para el monitoreo continuo de las condiciones de salud y sus
factores determinantes, para usar sus resultados en la planeación,
implementación y evaluación de los servicios de salud; entre sus aplicaciones se
destacan :

Epidemiología 20
1. Identificación de patrones de ocurrencia de enfermedades.
2. Pronóstico de tendencias de enfermedades y de factores de riesgo.
3. Detección y estudio de epidemias.
4. Identificación de nuevos o posibles factores de riesgo.
5. Búsquedas de casos de interés para nuevos estudios.
6. Anticipación de las necesidades de servicios de salud.
7. Evaluación del impacto de los planes y programas de salud.

La vigilancia de la salud actúa como un sistema de información especifico con su


población blanco (a quién vigilar), objetivos (que vigilar), la definición de las
condiciones de interés (variables e indicadores), las fuentes de los datos, las
estrategias para su recolección (notificación obligatoria y voluntaria, encuestas,
entrevistas, estudios de casos), procesamiento y análisis, interpretación y
divulgación permanente de los resultados al público (boletines).

Los datos de la vigilancia de la salud se usan para evaluar el estado de salud,


para definir prioridades en salud pública y para conducir investigaciones.

De acuerdo con los recursos y la disponibilidad tecnológica se pueden aplicar tres


tipos de vigilancia: simplificada basada en manifestaciones anormales en el
estado de salud (epidemiología popular mediante signos y síntomas); clínica
hecha por los profesionales de la salud e intensificada o interdisciplinaria cuando
se hace con métodos especializados de varias disciplinas.

Un programa de salud se diseña con tres componentes fundamentales: la


vigilancia del problema, los estudios epidemiológicos y los procesos operativos
para su intervención (prevención y control). La vigilancia aporta la información
sobre la magnitud, las características y la tendencia del problema; los estudios
epidemiológicos permiten profundizar en el conocimiento de la causalidad del
problema y en sus estrategias de prevención; el componente de intervención
aplica a la comunidad objeto del programa las acciones respectivas de
prevención y control. La reunión de los tres componentes en un programa crea un
laboratorio experimental para un problema de salud específico en una población
definida. Ejemplos de sistemas de vigilancia:

 Enfermedades transmisibles
 Vigilancia de accidentes
 Registros de cáncer
 Monitoreo de la contaminación del aire
 La mortalidad por el certificado de defunción
 Infecciones hospitalarias
 Encuestas sobre el hábito de fumar
 Vigilancia de vectores de enfermedades
 Vigilancia de la calidad del agua (contaminantes)

Epidemiología 21
 Vigilancia de la calidad de los alimentos
 Vigilancia del estado nutricional
 Vigilancia de la violencia (lesiones por causa externa)

Etapas en la planeación de un sistema de Vigilancia:


1. Establecer objetivos
2. Desarrollar definiciones de casos
3. Determinar el mecanismo y la fuente de recolección de los datos
4. Desarrollar los instrumentos de recolección de datos
5. Prueba de campo
6. Definir y probar el método de análisis de los datos
7. Asegurar la interpretación y comunicación de resultados

En Colombia el sistema de vigilancia de la salud es el SIVIGILA, establecido por


el Ministerio de Protección Social (MPS) con el Decreto No. 3518 del 9 de octubre
de 2006. Por el cual se crea y reglamenta el Sistema de Vigilancia en Salud
Pública.
El Sivigila hace parte del sistema de información para la Protección social (SIIPS)
que se fundamenta conceptualmente en los sistemas de manejo social del riesgo
y está integrado por seis grandes subsistemas: aseguramiento, financiamiento,
oferta, demanda y uso de servicios, información estratégica y administración de la
información.
El sistema de información para la vigilancia en salud pública del país, se enmarca
en el subsistema de demanda y uso de servicios, donde se ubican los procesos
de identificación de los factores de riesgo.
Artículo primero. Objeto. El objeto del presente decreto es crear y reglamentar
el Sistema de Vigilancia en Salud Pública, Sivigila, para la provisión en forma
sistemática y oportuna, de información de los eventos que afecten o puedan
afectar la salud de la población, con el fin de orientar las políticas y la planificación
en salud pública; tomar las decisiones para la prevención y control de las
enfermedades y factores de riesgo en salud; optimizar el seguimiento y
evaluación de las intervenciones; racionalizar y optimizar los recursos disponibles
y lograr la efectividad de las acciones en esta materia, propendiendo por la
protección de la salud individual colectiva.
Parágrafo. Todas las acciones que componen el sistema de Vigilancia en Salud
Pública, Sivigila, tendrán el carácter de prioritarias en salud pública

Para su operacionalización el MPS clasificó los eventos de interés en salud


pública que son objeto de la vigilancia en:

Epidemiología 22
• Condiciones de salud: los efectos o daños de la salud humana
(enfermedades, discapacidades y causas de muerte) .
• Factores de riesgo y protectores para la salud: derivados del ambiente, del
consumo y del comportamiento.
• Determinantes de la salud: factores sociales, demográficos, políticos y
económicos (desigualdades e inequidades).
• Oferta y demanda de servicios de salud: respuesta social, intervenciones
médicas y de salud pública.

Así mismo, definió los subsistemas de información para la recolección y análisis


de los datos para la vigilancia:

• Subsistema de enfermedades transmisibles


• Subsistema de enfermedades crónicas
• Subsistema para vigilancia de la mortalidad
• Condiciones sanitarias y ambientales
• Seguridad alimentaria y estado nutricional
• Consumo de medicamentos
• Psicoactivos
• Subsistema de violencia intrafamiliar
• Lesiones por causa externa
• Otros subsistemas

Los resultados de la vigilancia alimentan a loa boletines epidemiológicos que


son publicaciones periódicas de extensión limitada cuya característica
principal es la divulgación de datos con su análisis esencial sobre eventos de
interés en Salud Pública.
Aunque su propósito es la socialización de la información es también un
medio para generar debates sobre la situación de problemas de salud.

Hacia una nueva teoría de la salud

La Salud de una población se puede considerar como el estado resultante de la


interacción de cuatro sistemas:

Epidemiología 23
SISTEMAS BIOLÓGICOS SISTEMAS SOCIALES

SALUD

SISTEMA CLIMÁTICO ECOSISTEMAS

Ilustración 11. Sistemas que influyen sobre la salud

Los sistemas sociales han basado su sustento en el manejo de los recursos sin
tener en cuenta la degradación del ambiente. La deforestación, las obras de
infraestructura, la contaminación han alterado los delicados mecanismos de
regulación de los ecosistemas (destrucción de la biodiversidad), alteración que
está produciendo cambios climáticos globales (recalentamiento por el efecto
invernadero, fenómeno de El Niño, debilitamiento de la capa de ozono) que a su
vez, alteran los sistemas biológicos complejos que finalmente repercuten en la
salud humana (resurgimiento de enfermedades, deterioro de la calidad de vida).
El desequilibrio del ambiente desata una reacción en cadena que termina
perjudicando a los sistemas sociales.

Entonces la Epidemiología, a la luz de este modelo, debe abrir un nuevo capítulo


para monitorear y evaluar el impacto de los agentes perturbadores del ambiente
en la salud. En la carta de Salud de Otawa adoptada en la Primera Conferencia
Internacional sobre la Promoción de la Salud en 1986, se llamó la atención en
este aspecto al señalar textualmente al ecosistema como un recurso fundamental
para la salud:

"Los recursos fundamentales para la salud son: la paz, la vivienda, la


alimentación, la educación, un ingreso adecuado, un ecosistema
estable. El mejoramiento de la salud, requiere de todos estos pre-
requisitos, así como la promoción de los estilos de vida saludables".

Avanzando en la nueva teoría de la salud se han elaborado modelos que


consideran a la salud y la enfermedad como las resultantes de un conjunto
de condiciones sociales o determinantes que serían las causas de causas
de las condiciones de salud. Estos determinantes actúan en tres niveles
fundamentales: el nivel individual con los estilos de vida, el nivel comunitario
o de grupos de población (estratos o comunidades particulares) con sus
condiciones de vida y el nivel social en general con su modo de vida.

Epidemiología 24
BIBLIOGRAFIA

1. Colimon, S. Kahl-Martin. Fundamentos de Epidemiología. Colimón, Medellín


1978
2. Greenberg, Raymond, S. Medical Epidemiology. Lange medical book, USA,
1993
3. Londoño Fernandez, Juan Luis. Metodología de la Investigación
Epidemiológica, Universidad de Antioquia; segunda edición, Medellín 1995
4. MacMahon, Brian; Pugh, Thomas F. Epidemiology. Principles and Methods.
Little Brown and Company, Boston 1970
5. Guerrero, Rodrigo V; Gonzalez, Carlos Luis; Medina, L. Ernesto.
Epidemiología. Fondo Educativo Interamericano, Bogotá 1981
6. Susser, Mervyn. Causal Thinking in the Health Sciences. University Press,
New York, 1973
7. Wassertheil-Smoller, Sylvia. Biostatistics and Epidemiology. Springer-Verlag,
NewYork, 1990
8. Kleinbaum, David G; Kupper, Lawrence L; Morgenstern, Hal. Epidemiologic
Research. Principles and Quantitatives Methods. Lifetime Learning
Publications, Belmont, California 1982.
9. Teutsch, Steven M. Churchill, R. Elliot. Principles and Practice of Public
Health Surveillance. Oxford University Press, New York Ooxford, 1994
10. Moreno Altamirano, Laura; Cano Valle, Fernando: García Romero, Horacio:
Epidemiología Clínica. 2ª edición; Interamericana. Mcgraw-Hill, Mexico 1994
11. Ruiz M., Alvaro; Morillo Z., Luis E. Epidemiología Clínica. Investigación
clínica aplicada. Bogotá, editorial Médica Interamericana, 2004.
12. Blanco Restrepo, Jorge Humberto; Maya Mejía, José María, Editores.
Epidemiología Básica y Principios de Investigación. Fundamentos de Salud
Pública. Tomo III. Corporación para investigaciones biológicas. Medellín
1999.

Epidemiología 25
ESTADÍSTICA, ANÁLISIS DE LOS DATOS

INTRODUCCIÓN

La estadística se puede definir como un cuerpo de conceptos y métodos para


aprender de la experiencia con base en datos o medidas que muestran
variaciones individuales. La noción de "aprender de la experiencia" conlleva la
idea de que la experiencia resulta de la observación de un conjunto de
situaciones, aprendizaje que se aplicará a otras situaciones (por lo general
futuras). Este es el problema filosófico de la inducción.

Más específicamente la estadística es el estudio de los métodos cuantitativos


para describir fenómenos y hacer inferencia con datos incompletos: como ciencia
formal su marco teórico se fundamenta en las matemáticas, porque los
fenómenos se pueden representar en términos de modelos cuantitativos.

La estadística ocupa un lugar preponderante en el conocimiento porque ayuda a


sacar conclusiones con información incompleta; nuestra comprensión de los
fenómenos es imperfecta y tenemos además, una capacidad limitada para
observarlos y medirlos, en la realidad concurren universos de fenómenos
multivariables, la estadística nos proporciona un marco de conceptos y
herramientas para su estudio.

FUNCIONES DE LA ESTADISTICA

Para efectos de esta guía se tratarán las dos funciones importantes de la


estadística:

1. La estadística descriptiva que se ocupa de resumir y describir las


características de una serie de datos para hacerlos mas manuables.
2. La estadística inductiva, que consiste en inferir propiedades de una población
sobre la base de una muestra con resultados conocidos. Siendo la estadística
una ciencia puramente deductiva proporciona, mediante la teoría de las
probabilidades, una base racional para el razonamiento inductivo.

ESCALAS DE MEDICIÓN

Toda medición implica un conjunto de instrucciones detalladas que permitan


clasificar a los individuos en forma inequívoca, de aquí surge la noción del valor
como un atributo que se asigna o se predica de algo y a valores cambiantes el
concepto de variables (edad, sexo, costo, producción). Las variables pueden
tener valores continuos (numero infinito de intervalos en la escala de medición
como la talla) y discretos que no admiten fraccionamiento (sexo, No de camas,
afiliados).

Epidemiología 26
Atributo es una categoría a la que pertenece o no un individuo; por ejemplo,
enfermedad, hospitalización, satisfacción.

En desarrollo del concepto de la medición es útil distinguir los distintos niveles o


escalas de medidas:

1. Escalas nominales. Clasificación de los elementos de observación (datos,


variables, individuos) en categorías homogéneas dentro de si y heterogéneas
entre si; ejemplo, Pedro, María, médicos, administradores, hipertensos.
2. Escala ordinal. Clasificación de las categorías en un orden respecto a su
magnitud: alto, medio, bajo; leve, moderado, severo; primero, segundo,
tercero...
3. Escalas numéricas. Estas escalas miden la distancia (intervalo) que existe
entre un elemento y otro mediante una unidad física de medición, repetible
como una norma común para todos los elementos. Así, la longitud se mide en
centímetros o en metros, el peso en kilos, la estancia en días, el costo en
unidades monetarias.

Si en la medición se establece un punto de referencia (valor absoluto), se está


frente a una escala numérica de razón: razones, proporciones, tasas.
Las escalas de medición son cumulativas en sus propiedades, es decir, la ordinal
posee todas las propiedades de la nominal además de la ordinal. A su vez, la
escala de intervalo posee todas las propiedades de las escalas nominal y ordinal
y además, una unidad de medida, en tanto que la de razón presenta el nivel mas
elevado, ya que posee no solo una unidad de medida, sino, además, un valor
absoluto. Este carácter cumulativo de las escalas significa que al analizar los
datos se puede descender de la escala superior la inferior pero no viceversa.

El empleo de un determinado modelo o cálculo matemático debe estar legitimado


por el nivel de medición específico (escala). Por ejemplo, las operaciones
aritméticas corrientes solo pueden usarse por lo regular con las escalas de
intervalo y de razón.

1. MÉTODOS DESCRIPTIVOS

La estadística descriptiva se ocupa de presentar en forma resumida grupos de


observaciones con relación a un nivel de una característica de interés particular,
en términos de sus valores de ocurrencia o de su variabilidad. Al nivel de la
característica se le denomina indicador estadístico descriptivo.
Las escalas nominales y las de intervalo tienen sus propios indicadores
descriptivos.

ESCALAS NOMINALES
Es mucho mas sencillo resumir los datos que se encuentran en escalas
nominales, la operación aritmética básica consiste en contar el número de
observaciones al interior de cada categoría y anotar sus tamaños relativos, de
aquí se originan las proporciones, porcentajes y las razones.
Una proporción se calcula dividiendo una fracción sobre el total de los casos y
cuando el cuociente se multiplica por cien se convierte en porcentaje. La razón es

Epidemiología 27
un caso especial de proporción en que el numerador y el denominador
representan categorías separadas y distintas; ej., la razón de hombres a mujeres
en los afiliados a una EPS.

ESCALAS DE INTERVALO
Medidas de tendencia central
En la descripción de grupos de observaciones, con frecuencia se desea describir
el grupo mediante un solo número, supóngase que se desea representar la
estatura del grupo con una cifra típica, para ello no se va a usar la mas alta ni la
mas baja, porque representan valores extremos, se elige el valor central, la mas
usual. Estas medidas que representan valores típicos en grupos de
observaciones se denominan medidas de tendencia central, de resumen o de
posición.

En la interpretación de las medidas de tendencia central hay que tener en cuenta


que se aplican a grupos y no a individuos.
Las medidas de tendencia central mas usadas son la media o el promedio, la
mediana y la moda.

La media se designa como x y se calcula mediante la fórmula:

x

 Xi
n
Supóngase la serie 4, 5, 9, 1, 2
21
x
 o 4.2
5

La mediana es el valor de la observación que ocupa la posición central en una


serie de datos ordenados por tamaño.

En la serie del ejemplo anterior ordenada en forma ascendente la mediana es el


número 4, que ocupa la posición central:

1, 2, 4, 5, 9

El primer paso para encontrar la mediana es ordenar la serie de los datos en


orden de magnitud y localizar el valor central, el dato que divide la serie en dos
subconjuntos de datos iguales. Cuando la serie tiene dos valores centrales
entonces se promedian para encontrar la mediana:

1, 2, 2, 4, 5, 9 Aquí la mediana es (2+4)/2 = 3

La moda es el valor de mayor ocurrencia en una serie, es el que mas se repite;


en la serie anterior la moda es 2.

Existen otras medidas de tendencia central que por sus aplicaciones específicas
son poco usadas como la media armónica, la media ponderada, la media
geométrica y el rango medio

Epidemiología 28
Medidas de dispersión
Considérese las dos series de datos siguientes:

A = 1, 4, 4, 4, 7 B = 4, 4, 4, 4, 4

Obsérvese que ambas tienen mucho en común, tienen la misma media


aritmética, mediana y moda, son iguales en su tendencia central. Sin embargo la
serie A varía de 1 a 7 mientras que en la B el 4 es su mayor y menor valor. La
serie A muestra una variabilidad mientras que la B es homogénea. Para evaluar
este hecho la estadística descriptiva aporta las medidas de dispersión.
La medida mas simple y por lo tanto la menos útil es el rango que se obtiene de
restar el menor valor del mayor en una serie; ej., en la serie A el rango es 7-1 = 6
y en la B es 0. Este indicador sufre de dos problemas, primero no tiene en cuenta
los valores intermedios y segundo está influenciado por los valores extremos.
La desviación media (D.M.) es la sumatoria del valor absoluto de la diferencia
entre la media y las observaciones individuales divididas por el número de
observaciones:
DM=   i- / n

El valor absoluto (  ) es un concepto matemático en que se ignora el signo de


una diferencia y el resultado se toma como positivo.

En la serie A el cálculo de la D.M. es como sigue:

x  4 n=5


xi i- i-
1 -3 3
4 0 0
4 0 0
4 0 0
7 3 3
Total 6
D.M. = 6/5 = 1.2

Esta medida es poco usada por la complejidad de manejar números absolutos.

La desviación estándar
Es la mas útil y frecuente de las medidas de dispersión, se define como la raíz
cuadrada de la media aritmética de las desviaciones cuadradas con respecto a la
media.

La fórmula de la desviación estándar es:


s=  (-i)2/n-1

Epidemiología 29
Sea la serie de datos siguientes sobre las solicitudes de consulta odontológica en
una IPS:
xi i- i-
72 -1 1
81 8 64
86 13 169
69 -4 4
57 -16 256
Total 506
x = 73.0 s = 506/5 = 101.2 = 10.06

Los cálculos indican que el promedio de solicitudes es de 73 consultas diarias


con una variabilidad de 10 (mas o menos 10 solicitudes).

La importancia de la s radica en su utilidad para calcular las áreas bajo la curva


normal.

Indicadores descriptivos para datos agrupados


Cuando se tienen grandes series de datos es difícil su inspección global para
efectuar los cálculos con las fórmulas anteriores, los árboles no dejan ver el
bosque. La estrategia matemática consiste en agruparlos en clases y construir
una tabla de frecuencias como sigue:

1. Se obtiene el rango de los datos R, restando el menor del mayor.


2. Se determina el número de clases con la raíz cuadrada del número de datos
para series pequeñas, pero es mejor usar la fórmula: 1+3.3 log n .
3. Se calcula el intervalo de clase dividiendo el rango por el número de datos.
4. Se establecen los valores límites de cada clase, valor superior y valor inferior.
5. Se busca el punto medio para cada intervalo, xi = (Ls+Li)/2.
6. Se cuenta el número de datos en cada clase, es decir, se calculan las
frecuencias absolutas.
7. Se construye la tabla de frecuencias.

Supóngase que la serie siguiente de datos agrupados corresponde a los gastos


en medicamentos en un servicio de urgencias de un centro de atención
ambulatoria:

Epidemiología 30
Clases Limites de Puntos Frecuencias fixi fi(xi-x)
clases medios (xi) (fi)

2000-2900 1950-2950 2.450 17 41.650

3000-3900 2950-3900 3.450 26 89.700

4000-4900 3950-4950 4.450 38 169.100

5000-5900 4950-5950 5.450 51 277.950

6000-6900 5950-6950 6.450 36 232.200

7000-7900 6950-7950 7.450 21 156.450

Totales 189 967.050

Fórmulas: x
f x
i i
 5.117 s
 f (x
i i  )
x 2
N n1

2. PROBABILIDADES
La teoría de las probabilidades es la base matemática para la inferencia
estadística y es el motor de la inducción.
Si en un número n de eventos resultantes de un procedimiento un evento nA
posee el atributo A , se dice que el evento A tiene la probabilidad nA/n y se
escribe como P(A) = na/n.
Si la totalidad de los eventos n equivale a la unidad; la probabilidad de cualquier
evento con un atributo determinado es >= 0 <=1.
Los principios de la teoría de conjuntos (multiplicación, adición, unión de
conjuntos, conjuntos excluyentes y no excluyentes) tienen su origen en las
probabilidades, como los factoriales, las combinaciones y la permutaciones.

Teorema de Bayes
El problema básico del diagnóstico médico radica en que el facultativo debe
conocer la probabilidad de que un complejo de signos y síntomas correspondan a
una enfermedad particular, pero él usualmente desea conocer, para un paciente
individual, la probabilidad de la enfermedad dado el complejo sintomático
observado.
Considérese primero el simple caso de conocer la presencia o la ausencia de la
enfermedad D basado en la presencia del complejo sintomático S. D indica la
presencia de la enfermedad y D- su ausencia. Si se conoce P(D) en la población,
su ausencia, la P(D-), estará dada por P(D) = 1 - P(D). Además supóngase que
se conoce la probabilidad del síntoma dada la enfermedad: P(SD) y la P(SD).
Se desea conocer la P(DS). Obsérvese que los enfermos con el S pueden o no
tener la enfermedad D en particular. S se puede escribir “S y D o S y D”, desde
que los dos eventos son mutuamente excluyentes, así:
 )
P( S )  P( S y D )  P( S y D

Epidemiología 31
Además,
P( S y D) 
P( S| D )   P(S y D)
y P(S|D)=
P(D) 
P(D)
Si las expresiones se multiplican por P(D) y P(D), respectivamente, se tiene que:
 P(D)
P( S y D)= P(D)  P(S|D) y P(S y D)=   P(S|D)


Pero,
P( D y S) P(S y D)
P( D| S )  =
P(S) 
P( S y D) + P(S y D)

Finalmente,
P(D)  P(S|D)
P(D|S)=
P(D)  P(S|D)+ P(D)  P(S|D)


Esta expresión fué desarrollada por el Reverendo Thomas Bayes (1702-1761).

Ejemplo:

Una prueba de tamizaje ha sido propuesta para la detección de una forma


particular de cáncer en mujeres mayores de 40 años. La prevalencia de la
enfermedad ha sido establecida como del 1 por ciento en la población de las
mujeres mayores de 40. Por otra parte se ha investigado que el test tiene una
probabilidad de resultar positivo en las enfermas del 95 por ciento; su sensibilidad
es del 95 por ciento. Cuando se aplica a las mujeres sanas resulta positivo en el 3
por ciento, su especificidad o probabilidad de resultado negativo es de 97 por
ciento.

La pregunta es ¿ cual es la proporción de mujeres con el test positivo que


realmente tendrán el cáncer después de su confirmación con biopsia y examen
histopatológico ?

Supóngase que D denota la presencia de la enfermedad y S el resultado positivo


del test.
P(D) = 0.01
P(D) = 0.99; P(S|D) = 0.95; P(S|D) = 0.97

SE desea conocer la P(D|S); aplicando el teorema de Bayes se obtiene que:

( 0.01)( 0.95 )
P( D|S )   0.24
( 0.01)( 0.95 )  ( 0.99 )( 0.03 )

En prosa, esto significa que después de aplicar el test a las mujeres en la


población general y de hacerles el seguimiento para confirmación a todas las
positivas, solo tendrán el cáncer el 24 por ciento.

Epidemiología 32
3. INFERENCIA

Definiciones
Se define a una población o universo como a un grupo de unidades que tienen en
común alguna característica cuantificable.
Las unidades pueden ser personas, familias, animales, historias clínicas,
bacterias, árboles, insectos o cualquier otra entidad; pueden ser finitas o infinitas
en número. También puede ser el tiempo en el que se hacen observaciones en
un solo individuo.

La característica cuantificable puede ser una variable continua o discreta.


Una población o universo de observaciones consiste en un grupo de valores
numéricos de una característica cuantificable determinada en cada miembro de
una población de unidades.

Una misma población de unidades tendrá a menudo mas de un universo de


observaciones asociadas. Por ejemplo, en el estudio de las características
demográficas de la población de afiliados a una EPS, se puede determinar la
edad, el sexo, la ocupación, el ingreso económico y el tamaño de la familia.

Una muestra de unidades es un número finito de unidades de una población de


individuos.

Una muestra de observaciones es un número finito de observaciones de un


universo de observaciones.

En otras palabras, una muestra es una parte del universo.

En la práctica, aunque las poblaciones de unidades y observaciones existen en la


realidad, ellas no están disponibles para su estudio detallado por el investigador
debido a restricciones económicas, administrativas y de tiempo. Si alguien está
interesado en conocer las características de la familia de la seguridad social en el
país, le será casi imposible estudiar a toda la población. Entonces se acoge al
recurso del muestreo para hacer sus observaciones y los resultados se los
aplicará a la totalidad de Colombia, es decir, hará inferencia al universo mediante
un procedimiento inductivo. Esta es la misión de la estadística, desarrollar
procedimientos para hacer tales inducciones o inferencias de una muestra a la
población y asegurar que la muestra produzca la mayor información con sus
cualidades como el tamaño, el procedimiento de selección y los cálculos.

Con frecuencia se usa la muestra para obtener características descriptivas


resúmenes de la población de observaciones, tales como la media, o la varianza.
Estas características en la población se denominan parámetros y en la muestra
estadísticos.
Muestreo aleatorio
Población

Muestra

Inferencia

Epidemiología 33
Los parámetros se estiman o se infieren de los estadísticos.

Tipos de muestras
Una muestra aleatoria o probabilística es la que se obtiene de un universo de tal
forma que cada miembro de la población tenga la misma probabilidad de ser
seleccionado y la selección de las diferentes entidades sea independiente entre
ellas.

El muestreo aleatorio tiene muchas ventajas, elimina los sesgos que se pueden
presentar al escoger las unidades con favoritismo, permite calcular el error de
muestreo y sobretodo, por el hecho de que casi todas las técnicas estadísticas se
basan en el muestreo al azar.

Para el muestreo aleatorio están disponibles varios procedimientos de acuerdo


con el universo y las unidades objeto de la selección:

a. Muestreo aleatorio simple que se puede hacer en un solo paso mediante una
tabla de números aleatorios.
b. Muestreo estratificado en el cual el universo se divide en subpoblaciones o
estratos y de cada uno se toma una muestra aleatoria.
c. Muestreo por conglomerados.
d. Muestreo por cuotas, muy utilizado en las encuestas de opinión.
e. Muestreo aleatorio sistemático, muy útil cuando las unidades están ordenadas
en secuencia, como las historias clínicas en un archivo.
f. Muestreo polietápico que incluye varios pasos para seleccionar las unidades
finales de la muestra.

De acuerdo con el diseño del estudio y de las características del universo se


aplican los procedimientos estadísticos para el cálculo de la muestra.

Distribuciones de probabilidad
Un conjunto de variables aleatorias, que pueden tener varios valores con varias
probabilidades medidas en unidades individuales, tienden a distribuirse de una
manera tal que su comportamiento se puede describir asimilándolo a un modelo
teórico denominado distribución de probabilidad. Ej., la forma de llegada de los
pacientes a un servicio de urgencias, la distribución del efecto de un tratamiento
en una población de enfermos, la distribución del peso y la talla entre los alumnos
del postgrado.

Aunque la lista de modelos de distribuciones descubiertas por los estadísticos


puede ser larga, porque la mayoría tiene propósitos específicos (continua,
exponencial, Erlang y otras) solo se estudian las tres mas usuales, como son la
binomial, la de Poisson y la normal.

En la distribución binomial una variable x puede tomar el valor de probabilidad


exacto de 1 ó 0 (cero), y es característica de los eventos discretos mutuamente
excluyentes: curado o no curado, hombre o mujer, satisfecho o no satisfecho.
La media y la varianza para una distribución binomial de x, con un número total
de eventos n en ensayos independientes y con la probabilidad de p de un evento
independiente son:

Epidemiología 34
media = np; varianza = npq, en donde q = 1-p.

Para efectos de notación estadística la distribución binomial se denota con la


siguiente convención:
B( x; n, p )
Se han construido tablas para obtener las probabilidades binomiales para valores
de n y p. Estas tablas se suministran como apéndices en los libros de estadística.
La distribución de Poisson también es útil para describir el comportamiento de
eventos discretos tales como las llamadas que entran a un conmutador, los
pacientes que llegan a la cola de espera de un servicio, el recuento de colonias
de bacterias en cajas de Petri.

Si x es un valor particular, la probabilidad de acuerdo con la distribución de


Poisson de que este valor ocurra es:
e -  x
x!
(la x, significa x factorial), u es la media de la distribución.
El valor de la probabilidad también se consigue en las tablas de los libros.

La distribución normal
La distribución normal es el modelo de distribución que ocupa la posición central
en la teoría y la práctica estadística. Su importancia radica en sus propiedades
matemáticas para la inferencia, su capacidad para aproximarse a las
características de otras distribuciones, y su habilidad para manejar casi cualquier
variable aleatoria que se le aproxime.
La distribución normal describe a las variables continuas y cuando se representa
gráficamente los valores de la probabilidad de la variable x, se produce una curva
en forma de campana con la densidad (el continuo de los valores p) de la
probabilidad, tiene un solo pico central en el valor de x = u (la media). Es
simétrica en el sentido de que al sumar o restar de la media una desviación
estándar se producen dos segmentos iguales de la densidad de probabilidad:
Cambios en la media o en la desviación estándar produce cambios en la forma y
en la posición de la
curva. Al cambiar la
media se desplaza la
curva a la derecha o a la
izquierda. Al variar la
desviación estándar se
cambia el punto de
inflexión de la curva, se
D e n s id a d d e aleja o se aproxima al
p r o b a b ilid a d
x punto de la media, esto
concuerda con el hecho
-   +  de que la desviación
estándar mide la
dispersión de la curva (de
la distribución).
Una característica interesante de la distribución normal es que las colas de la
curva se extienden indefinidamente a los lados, en correspondencia con el rango

Epidemiología 35
infinito de valores continuos de la variable x. El valor total del área cubierta por la
curva (densidad) es igual a 1.

La distribución normal así descrita es realmente una gran familia de distribuciones


en donde la media y la desviación estándar adquieren muchos valores. Con el fin
de tabular las probabilidades normales para valores de varios parámetros se ha
establecido un artificio de cálculo denominado estandarización, la distribución
normal estándar como un modelo teórico de distribución en donde la variable x se
denomina z, con u = 0 y desviación = 1.
x u
Z

=(sigma, la desviación estándar)

Esta expresión permite entonces ajustar un conjunto de datos a una distribución


normal por comparación de la distribución teórica esperada con la observada.

Teorema central del límite


Uno de los aspectos mas interesantes del fenómeno matemático de la
distribución normal es el concepto del teorema central del límite: la media de las
muestras aleatorias de tamaño n de cualquier distribución de datos, normal o no,
con media = u y varianza, se aproxima a la normal, y esta aproximación se
incrementa con el tamaño de la muestra.

El hecho es que cualquier distribución continua, discreta, unimodal, multimodal,


simétrica o no, produce medias muestrales que tienden a distribuirse
normalmente. Esto es como si “todos los caminos llegan a Roma”. La
interpretación es que cualquier fenómeno natural está compuesto por pequeños
efectos, algunos con acción positiva y otros negativa, que combinados producen
un valor numérico que tiende a comportarse como una distribución normal.

Estimación
La inferencia estadística se basa en dos procedimientos matemáticos, originados
en la inducción filosófica, la estimación y la prueba de hipótesis.
En una distribución normal cuando se conocen la media y la desviación estándar
se pueden calcular otros parámetros. Pero en general como estos parámetros
son atributos de la población de referencia y se desconocen, entonces se
depende de los valores numéricos de los datos de la muestra para estimarlos.
Debido a la variación de la muestra (error muestral) no se puede calcular con
exactitud su valor numérico, se estima puntualmente y en un intervalo.
El indicador que se utiliza para estimar el parámetro se denomina estimador, la
media y la varianza de la muestra son estimadores de la media y la varianza
poblacional.
Basándose en la distribución normal estándar se han desarrollado fórmulas para
la estimación de intervalo, cuyos desarrollos matemáticos están fuera del alcance
de esta guía. Por ejemplo, con la varianza conocida para estimar el intervalo de u
con una probabilidad de 0.95 la fórmula es:
 
x  196
. u  x  196
.
n n

Epidemiología 36
Prueba de hipótesis
La prueba de hipótesis se basa en comparar el resultado de la muestra contra un
estándar numérico, que puede ser un parámetro poblacional, o el valor de la
diferencia o la relación de parámetros de dos poblaciones.
También se puede considerar a la prueba de hipótesis como un procedimiento
para tomar decisión frente a dos alternativas. Supongamos que de dos drogas
que se han fabricado para prevenir la muerte por ataque cardiaco, creemos que
la droga A es mejor que la B porque, digamos, previene un 10% mas de muertes,
y estamos interesados en comprobarlo mediante un estudio clínico. Una vez
recogidos los datos se analizan mediante una prueba de hipótesis:

La hipótesis que se prueba estadísticamente se llama hipótesis de nulidad, en el


ejemplo se plantea como “no existe diferencia en la mortalidad entre los pacientes
tratados con las dos drogas”. Esta hipótesis de nulidad, denotada como Ho, se
prueba contra una hipótesis alterna, Ha: “el efecto en la prevención de la
mortalidad en los pacientes tratados con las dos drogas es diferente”.

Ho : la tasa de mortalidad en el grupo tratado con la droga A = a la tasa de


mortalidad en el grupo tratado con la droga B. Lo que es equivalente a:
Ho : Tasa de muerte en el grupo A - tasa de muerte en el grupo B = 0
Ha : tasa de muerte en el grupo A es diferente a la tasa de muerte en el grupo B.

Con los datos se calculan las tasas y se observan los valores. Los siguientes son
los razonamientos a que da lugar el proceso:

1. Existe una diferencia entre las dos tasas de muerte?


2. Cual es la probabilidad de que la diferencia se deba al azar?
3. Si la diferencia es significativa, entonces se rechaza la hipótesis de nulidad
(por falsa) y se acepta la alterna.

Pero esto no es así tan fácil como parece, primero hay que diseñar un estudio
válido para el problema, digamos un ensayo clínico (diseño experimental),
obtener una muestra representativa de los grupos de pacientes (aleatoria y de
tamaño adecuado), seleccionar el punto final de evaluación del efecto de las
drogas, la mortalidad un evento discreto; después, asignar los pacientes al azar a
cada grupo y hacerles el seguimiento durante el tiempo designado para el
estudio. Finalmente, con los datos de muertes y sobrevivientes aplicar la prueba
de hipótesis.

El procedimiento para efectuar una prueba de hipótesis tiene los siguientes


pasos:

1. Formulación de la hipótesis como una declaración, afirmación o planteo acerca


de una población o poblaciones o de la muestra.
2. Especificar el nivel de significancia (error alfa) y el poder de la prueba para el
tamaño de la muestra.
3. Escoger el estadístico de la prueba.
4. Establecer la regla de la decisión.
5. Efectuar los cálculos.
6. Tomar las decisiones.

Epidemiología 37
En el gráfico siguiente se ilustran los conceptos del nivel de significancia, zona de
aceptación y zona de rechazo de la hipótesis de nulidad, porque los test de
hipótesis se basan en que Ho es cierta:

Ilustración 2

Z/2 Z1-/2

Area crítica o de rechazo Area de aceptación Area crítica o de rechazo

El nivel de significancia es un estándar de comparación de probabilidades, se


define como la probabilidad de rechazar Ho cuando es cierta e indica el error alfa.
En la ilustración 2 el valor p del nivel de significancia separa la zona de
aceptación de la zona de rechazo (es un punto de corte entre las dos zonas). Por
lo general este valor de p se establece en 0.05. Si el valor de la p calculada con el
estadístico de la prueba es igual o menor a la p del nivel de significancia se
rechaza Ho, porque p < 0.05 cae en la zona de rechazo (recuérdese que hacia
las colas de la curva p disminuye), en el caso contrario de p>0.05 se acepta Ho.

El estadístico de la prueba es una variable aleatoria relacionada con la hipótesis


en prueba que sirve para probar los parámetros de Ho frente al nivel de
significancia escogido.

Para variables continuas, ajustadas a la distribución normal, entre los mas


usados están:

1. La diferencia de medias con varias modalidades de acuerdo con la varianza, el


tamaño de la muestra y el diseño del estudio.
2. Razón de varianzas.
3. Análisis de varianza (conocida en inglés como ANOVA)

Para distribuciones binomiales (escalas nominales dicotómicas) se usa la


diferencia de proporciones.

Prueba de Chi cuadrado


La prueba de chi cuadrado, se denota , es una prueba muy general que puede
emplearse cuando se desea probar si unas frecuencias categóricas, obtenidas

Epidemiología 38
empíricamente, difieren significativamente o no de las que se esperarían bajo
ciertos supuestos teóricos. Su mayor aplicación se encuentra en la prueba de
hipótesis para problemas de contingencia (diseños factoriales) en los que dos
variables de escala nominal se han clasificado por comparación de una con otra.
También se usa para evaluar la bondad del ajuste de normalidad de una
distribución.

La fórmula general es :  2 
 ( Oi  Ei )2
Ei
De esta expresión se derivan varias modificaciones según los supuestos del
estudio.

Oi se refiere a las frecuencias observadas con los datos empíricos, Ei = a las


frecuencias esperadas si no hubiese asociación entre las variables. Las
frecuencias esperadas se calculan aplicando la ley de las probabilidades
conjuntas de dos eventos independientes.
En el estudio clínico para evaluar la eficacia de los dos medicamentos A y B en la
prevención de la mortalidad posterior a un ataque cardiaco, se obtuvieron los
siguientes resultados:

Ilustración 6. Resultados del ensayo clínico de las drogas A y B en la


mortalidad posterior al infarto cardiaco
Tratamiento
Respuesta Droga A Droga B Total
Vivos 34 9 43
Muertos 6 41 57
Total 50 50 100

Usando la fórmula no corregida :

( a  d  b  c )2  n
2 
(a  c ) (b  d ) (a  b ) (c  d )

( 34 x41  9 x16 )2  100 ( 1250


. )2  100 1562
. .500
2     25.50
50 x50 x43 x57 5.172.500 61275
.

El valor crítico del chi cuadrado al nivel de p = 0.05 = 3.84, con un grado de
libertad.

En una tabla de percentiles del chi cuadrado se busca el valor 25.50 y se


encuentra que es p<0.005, diferencia significante. Se concluye que la droga A es
mejor que la B en la prevención de la mortalidad postinfarto cardiaco.

Análisis multivariado
En cierto sentido el objetivo último de las ciencias es la predicción. El análisis de
regresión estudia la relación funcional entre las variables y proporciona una
herramienta de predicción o pronóstico. Galton en 1889 estableció la ley de la

Epidemiología 39
regresión a la media “los fenómenos tienden en su comportamiento a regresar al
promedio”. Bajo esta ley se comprende porqué los hijos de los padres altos
tienden a la estatura promedia de su población y, así mismo los de los padres
bajos. De lo contrario la generación de los altos seguiría con miembros cada vez
mas altos y la de los bajitos con enanos.
En otros campos, biológicos y sociales también se observa el fenómeno de la
regresión a la media, el comportamiento de los estudiantes en clase, la opinión
política de las comunidades.
Bajo este concepto se puede predecir el comportamiento de una variable con
respecto a su relación observada con otra u otras.
Entre el peso y la edad del niño en su primer año de vida existe una asociación, la
edad es pronóstica del peso.
Si el peso del niño es una variable (y) dependiente de la edad (x) se puede
construir una ecuación lineal del tipo:
yi  a  bxi  ui

De acuerdo con el tipo de relación entre las variables, dos o mas, se construyen
ecuaciones que expresen el modelo de la asociación.

El análisis de correlación determina el grado de relación entre las variables y se


expresa mediante el coeficiente de correlación r y r2. En un estudio para
comparar la concordancia de la lectura del cuadro hemático, entre un equipo
automatizado y el procedimiento visual del bacteriólogo, se tabularon 800
exámenes, y se encontró que el r para los linfocitos es de 0.87, y el r2 = 0.76. Es
decir la concordancia entre las dos lecturas es de aproximadamente del 80%.

Este hallazgo indica que el aparato produce una lectura confiable (al 80%) del
cuadro hemático.

En el análisis de regresión múltiple se evalúa el poder predictivo de un conjunto


de variables usualmente contínuas 1, 2,. ...., p sobre una variable
dependiente continua Y de acuerdo con un modelo lineal de la forma:

Y =  + 11 + 22 + ... + pp + 

en donde  representa el efecto no explicado por las variables incluidas en el


modelo o sea el término independiente; i representa a los coeficientes de
regresión o pendiente de las variables independientes incluidas en el modelo y ,
el error aleatorio.

La estrategia central de este método consiste en descomponer la variación


observada en la variable dependiente Y en:

1. La variación explicada por cada uno de los factores considerados como


varaibles independientes 1, 2, ..., p o variación debida a la regresión.
2. La variación no explicada por tales factores o debida al error.

Epidemiología 40
Otras técnicas de análisis multivariado incluyen el análisis de varianza, el análisis
de función discriminante y el análisis multivariado de regresión lineal con base en
la función logística.

4. MÉTODOS NO PARAMÉTRICOS
La palabra paramétrico se refiere a los parámetros de un modelo estadístico. En
los métodos paramétricos el análisis de los datos se hace asumiendo que el
modelo teórico es una buena representación de los datos que se analizarán. La
comparación entre los grupos de datos se basa en la comparación de las
estimaciones entre los correspondientes valores de los parámetros. Estos
métodos hacen el mejor uso de los datos y asumen que el modelo (paramétrico)
usado es real. En los métodos no paramétricos no existen estos supuestos; sino
que el análisis (la comparación) se basa en el orden, los rangos de los datos.

Un ejemplo simple se presenta con el estudio para probar la equivalencia de dos


muestras no pareadas. Dos grupos de valores tomados de una medición en dos
grupos de pacientes se van a comparar. El test apropiado con método
paramétrico sería la prueba t (diferencia de medias), asumiendo que las muestras
corresponden a una distribución normal con medias diferentes. Estas dos medias
serían entonces los parámetros para ser estimados y comparados. En el método
no paramétrico se usaría el test de Wilcoxon, que no establece ningún supuesto
de distribución probabilística en los datos, en vez de ello utiliza el rango de los
datos.

Notas finales
En los datos no hay pruebas ni verdades absolutas que puedan ser reveladas
mediante técnicas estadísticas, la significancia estadística no se debe confundir
con la significancia práctica. La estadística depende entre otras cosas del
tamaño muestral, mientras que la significación práctica no depende de ese
tamaño sino de consideraciones ad-hoc (biológicas, socioeconómicas, etc). La
estadística llega hasta donde empieza la interpretación de los resultados por el
investigador mediante sus marcos teóricos biológicos, sicológicos, sociales,
económicos, etc.

Los temas tratados en estos resúmenes deben considerarse principios


metodológicos para el abordaje científico de los problemas en la gestión de las
empresas de salud y notas introductorias a los conceptos para que el estudiante
los amplíe con la bibliografía, pero es con la práctica cuando finalmente se
afianzan los conocimientos.

Epidemiología 41
BIBLIOGRAFIA

1. Berenson, M L. Estadística para Administración y Economía. MacGraw-Hill


2. Mason y Lind. Estadística para Administración y Economía. Editorial Libros y
Libres.
3. Wayne W. Daniez. Bioestadística. Limusa, 3a edición.
4. Ya Lun Chou. Análisis Estadístico. Interamericana.
5. Remington, Richard D. Schork, M. Anthony. Statistic with Applications to the
Biological and Health Sciences. 1970, Prentice-Hall, N.J. USA
6. Samuels, Myra L. Statistics for the Life Sciences; Dellen Publishing Company,
San Francisco, 1991.
7. Bioestadística

Epidemiología 42