Anda di halaman 1dari 70

Bioestadística y Epidemiología

Introducción
La Estadística es una ciencia que utiliza datos numéricos para
obtener inferencias basadas en el cálculo de probabilidades.

Latín statisticum collegium (“consejo de Estado”) y de su


derivado italiano statista (“hombre de Estado o político”).
• En 1749 el alemán Gottfried Achenwall statistik para designar el análisis de
datos estatales.

Pero ¿Por qué es importante la estadística en el campo de la


salud?
Modulo 1
ESTADÍSTICA PARAMÉTRICA Y ANÁLISIS DE VARIANZA , ANOVA.
Definiciones:
Probabilidad Estadística Bioestadística Variable Población

Disciplina
Medida numérica Ciencia que utiliza científica que se
Es cada una de
que cuantifica datos numéricos encarga de la Conjunto de todas
las características
numéricamente la para obtener aplicación del las observaciones
o cualidades que
posibilidad de que inferencias análisis estadístico posibles sobre una
poseen los
un resultado o basadas en el a diferentes característica de
individuos de una
evento se cálculo de cuestiones interés observada.
población.
presente. probabilidades. vinculadas a la
biología.
Variables
Relación Tipo
Dependiente Independiente Neutras Cuantitativas Categóricas o cualitativas Intervalo

Las que cambian,


debido a que otra Las que cambian sin
Son las que no están Nos permiten expandir
variable o variables han depender del cambio
relacionadas con Discreta Continua Nominales Ordinales el radio de las variables
cambiado, de acuerdo de otras o pueden ser
ninguna otra. numéricas (1-5).
con un tipo de relación manipuladas.
dada entre ambas.

No pueden ser
Valores comprendidos clasificadas ni en una
Las que aceptan una
Numero finito y entero entre dos números, magnitud cuantitativa
jerarquización de
(cantidad libros, cualquier valor de un ni en una magnitud de
importancia (1er hijo,
alumnos, etc. intervalo real (estatura, jerarquía
2do hijo).
volumen de agua, etc). (género; varón, mujer,
etc).
ESTADISTICA PARAMETRICA
Comprende los procedimientos estadísticos y de decisión que están basados en las distribuciones
de los datos reales.
Objetivos:
◦ Estimación puntual en la que pretendemos dar un valor al parámetro a estimar.
◦ Estimación por intervalos (buscamos un intervalo de confianza).
◦ Contrastes de hipótesis donde buscamos contrastar información acerca del parámetro.
Medidas de tendencia central y medidas de
dispersión.
Las medidas de tendencia central

Identifican el comportamiento
más común en la característica
en una población
Media aritmética (o promedio)
Mediana
Moda
Distribución normal y binominal
Una distribución de probabilidad sigue una distribución normal de media 𝑥ҧ y desviación típica σ,
y lo representaremos por N(𝑥;ҧ σ) cuando la representación gráfica de su función de densidad es
una curva positiva continua, simétrica respecto a la media, de máximo en la media, y que tiene 2
puntos de inflexión , situados a ambos lados de la media (𝑥ҧ − σ y 𝑥ҧ + σ respectivamente) y a
distancia de σ ella, es decir de la forma:
La importancia de la distribución normal
a) Casi todas las características cuantitativas de las poblaciones muy grades tienden a aproximar
su distribución a una distribución normal.
b) Muchas de las demás distribuciones de uso frecuente, tienden a distribuirse según una
Normal, bajo ciertas condiciones.
c) Todas aquellas variables que pueden considerarse causadas por un gran número de pequeños
efectos (como pueden ser los errores de medida) tienden a distribuirse según una distribución
normal.
Distribución binominal
Es uno de los modelos de distribución teórica de probabilidad que se utiliza cuando la variable
aleatoria discreta es el número de éxitos en una muestra compuesta por n observaciones.
Esta relacionada con al distribución de Bernoulli que es una distribución de variable aleatoria X
que toma solamente valores de cero y uno (éxito y fracaso), cuando se realiza un solo
experimento.
La variable puede tomar valores entre 0 (si todos los experimentos han sido fracaso) y n (si todos
los experimentos han sido éxitos)
Para este tipo de distribución de probabilidad, la función matemática es la siguiente:

Donde:
P(X) = probabilidad de X éxitos dados los parámetros n y p
n = tamaño de la muestra
p = probabilidad de éxito
1 – p = probabilidad de fracaso
X = numero de éxitos en la muestra ( X = 0, 1, 2, …….. n)
La distribución binomial En cada ensayo hay sólo
El número de ensayos o
es una distribución de dos posibles resultados
repeticiones del
probabilidades que (éxito o fracaso,
experimento (n) es
surge al cumplirse las defectuoso o noi
constante.
siguientes condiciones: defectuoso).

La probabilidad de cada En cada ensayo, los dos


Los resultados de cada
resultado posible en resultados posibles son
ensayo son
cualquier ensayo mutuamente
independientes entre si.
permanece constante. excluyentes.
Formas
Cuando p=0.5 sin tomar en Cuando p≠0.5. Cuanto más
Simétrica:

Sesgada:
cuenta que tan grande o cerca se encuentre "p" de
pequeño sea el valor de "n" 0.5 y mayor sea el número
de observaciones "n",
menos sesgada será la
distribución, por otra parte,
con una "p" pequeña la
distribución tendrá un gran
sesgo a la derecha y para
una "p" muy grande la
distribución tendría un gran
sesgo a la izquierda.
Hipótesis
Es la suposición de algo que podría, o no, ser posible. En este sentido, la hipótesis es una idea o
un supuesto a partir del cual nos preguntamos el porqué de una cosa, bien sea un fenómeno, un
hecho o un proceso.
Hipótesis
Hipótesis
alternativa
nula Hо Indica que Hо, representa la
Se denota H1,. En los casos en
hipótesis que mantendremos H1 los que no se especifica H1,
a no ser que los datos
podemos considerar que ha
indiquen su falsedad, o en el
quedado definida
sentido de neutra, nunca se
implícitamente como H0, es
considera probada y puede
falsa.
ser rechazada por los datos.

La hipótesis nula es el
Es el enunciado que se desea
enunciado que se probará.
poder concluir que es
Por lo general, la hipótesis
verdadero de acuerdo con la
nula es un enunciado de que
evidencia proporcionada por
"no hay efecto" o "no hay
los datos de la muestra.
diferencia".
Las hipótesis nula y alternativa son dos enunciados mutuamente excluyentes acerca de una
población. Una prueba de hipótesis utiliza los datos de la muestra para determinar si se puede
rechazar la hipótesis nula.

Hipótesis nula (H0) Hipótesis alternativa (H1)

Indica que un parámetro de Indica que un parámetro de


población (tal como la media, la población es más pequeño, más
desviación estándar, etc.) es igual a grande o diferente del valor
un valor hipotético. La hipótesis hipotético de la hipótesis nula. La
nula suele ser una afirmación inicial hipótesis alternativa es lo que usted
que se basa en análisis previos o en podría pensar que es cierto o
conocimiento especializado. espera probar que es cierto.
Muestreo
Aleatorio simple Sistemático
• Seleccionar de manera aleatoria, sin seguir algún tipo de • Elegir un objeto en función de intervalos predeterminados.
agrupamiento específico. • El muestreo sistemático es muy útil. Sin embargo, tiene una
• Tipo de muestreo es el más común pero tiene la limitante limitante llamada introducción de sesgo.
de que se elijen muestras aleatorias y algún tipo de
característica puede no ser tomada en cuenta.

Estratificado Racimo
• Se divide la población de datos en grupos homogéneos • Esta forma de muestrear se parece a la anterior, con la
(mujeres y hombres, intervalo de pesos, etc.) y se diferencia de que primero se hacen estratos y luego se
determina qué proporción representa cada estrato o grupo. seleccionan miembros, datos u observaciones de cada uno
Cuando se analizan las características y parámetros como de los estratos de una manera aleatoria.
media, desviación estándar, etc., se ponderan los mismos
en función de su representación o proporción de peso
respecto la población total y con esa ponderación se
obtienen los parámetros y probabilidades totales de dicha
población con este tipo de muestra
En el siguiente cuadro se destacan las principales diferencias operativas o de ejecución de cada uno
de los tipos de muestreo estudiados.
Unidad 2:
Análisis de varianza. ANOVA (Analysis of variance).
La varianza
La varianza es, quizá, la medida de dispersión más empleada en la Estadística y en todo tipo de
aplicaciones, mide el tamaño promedio de separación que las diferentes observaciones de la
población tienen respecto a media (𝑥). ҧ

Es una medida de qué tan disperso es un conjunto de


datos.
Si la varianza es pequeña, significa Si la varianza es grande, significa
que los valores del conjunto están que los números están más
bastante agrupados. dispersos.
Método 1.
1. Como calcular la varianza de una muestra:
Ejemplo: analizando la cantidad de
panquecitos que se venden todos los días en
una cafetería, tomas una muestra de seis días
aleatorios y obtienes los siguientes
resultados: 17, 15, 23, 7, 9, 13. Esta es una
muestra, no la población, ya que no tienes los
datos de todos y cada uno de los días en los
cuales ha estado abierta la cafetería.
2. Fórmula:
La varianza de un conjunto de datos te indica qué
tan dispersos están los puntos de datos. Mientras
más cerca de cero esté la varianza, más cercanos
estarán entre sí los puntos de datos. Cuando vayas
a trabajar con muestras de conjuntos de datos,
utiliza la siguiente fórmula para calcular la
varianza:
3. Calcula la media de la muestra:
El símbolo x̅ se refiere a la media de la
muestra. Calcúlala como lo calcularías cualquier media:
suma todos los puntos de datos, luego divídela por la
cantidad de puntos de datos.
Por ejemplo: primero suma todos los puntos de datos:
17 + 15 + 23 + 7 + 9 + 13 = 84
A continuación, divide la respuesta por la cantidad de
puntos de datos, en este caso, seis: 84 ÷ 6 = 14.
Media de la muestra = x̅ = 14.
Puedes pensar en la media como el "punto central" de
los datos. Si los datos se agrupan cerca de la media,
entonces la varianza será baja. Si se encuentran
esparcidos lejos de la media, la varianza será alta.
4.Restale la media a cada punto de datos
Ahora es momento de calcular 𝑥¡ - x̅, donde 𝑥¡ es cada
número del conjunto de datos. Cada respuesta te indicará la
desviación con respecto de la media o, en lenguaje
coloquial, qué tan lejos de la media está cada número.
Ejemplo:

Es fácil revisar tu trabajo, ya que la suma de las respuestas


debe ser igual a cero. Esto se debe justamente a la
definición de la media, ya que las respuestas negativas
(distancia de los números pequeños respecto de la media)
cancelan exactamente las respuestas positivas (distancia de
los números más grandes respecto de la media).
5. Eleva cada resultado al cuadrado
Tal como se explicó más arriba, la lista actual
de desviaciones ( 𝑥1 - x̅) suman cero. Esto
quiere decir que la "desviación promedio"
siempre será igual a cero.
Por lo tanto, esto no te dice demasiado acerca
de qué tan dispersos están los datos. Para
resolver este problema, debes elevar al
cuadrado cada desviación.
Al hacerlo, todos los números se convertirán en
positivos, por lo tanto, los valores positivos y
negativos dejarán de cancelarse y sumar cero.
6. Calcula la suma de los valores al
cuadrado
Ahora es momento de calcular el numerador total de
la fórmula ∑[( 𝑥1 - x̅) ^2].
La letra sigma mayúscula, ∑, te indica que debes sumar
el valor del siguiente término para cada valor de X₁. Ya
calculaste [(X₁ - x̅) ^2 para cada valor de 𝑥1 en la
muestra. Así que todo lo que tienes que hacer ahora,
es sumar los resultados.
Ejemplo: 9 + 1 + 81 + 49 + 25 + 1 = 166.
7. Divide n-1
Hace mucho tiempo, los estadísticos dividían la
varianza de la muestra por n. Esto te da el valor
promedio de la desviación al cuadrado, que coincide
perfectamente con la varianza de la muestra. Pero
recuerda que la muestra es solo una estimación de
una población más grande.
Si tomas otra muestra aleatoria y haces el mismo
cálculo, obtendrás un resultado diferente. Por este
motivo, al dividir por n-1 en vez de por n obtendrás
una mejor estimación de la varianza de una población
más grande y eso es justamente lo que estás
buscando. Esta corrección es tan común que se ha
convertido en la definición aceptada de la varianza de
una muestra.
8. Aprende a distinguir varianza de
desviación estándar
Ten en cuenta que, al haber un exponente en la fórmula, la varianza se mide en unidades al
cuadrado de los datos originales.
Esto puede hacer que no sea tan sencillo entenderlo en forma intuitiva. En su lugar, a menudo se
usa la desviación estándar. De todas formas, tu esfuerzo no fue en vano, ya que la desviación
estándar no es otra cosa que la raíz cuadrada de la varianza. Es por eso que la varianza de una
muestra se expresa como 𝑠 2 y la desviación estándar de una muestra como s. Por ejemplo, la
desviación estándar de la muestra anterior es = s = √33,2 = 5,76.
Método 2
1. Datos de la población
El término "población" hace referencia al total de
datos de las observaciones relevantes. Por ejemplo,
si vas a analizar la edad de los residentes del estado
de Texas, tu población debe incluir la edad de cada
uno de los residentes de Texas. Normalmente, para
un conjunto de datos tan grande como ese, crearías
una hoja de cálculo.
Sin embargo, aquí tienes un conjunto más pequeño
de datos como ejemplo: En la habitación de un
acuario hay exactamente 6 peceras. Las seis peceras
contienen la siguiente cantidad de peces:
2. Anota la formula de la varianza de la
población.
Debido a que la población contiene todos los datos
que necesitas, esta fórmula te dará el valor exacto
de la varianza de la población. Para poder
distinguirla de la varianza de una muestra (que es
solo un valor aproximado), los estadísticos usan
otras variables:
3. Encuentra la media de la población
Cuando analizas una población, el símbolo μ ("mu")
representa la media aritmética. Para encontrar la
media, suma todos los puntos de datos y luego divide
el resultado por la cantidad de puntos de datos.
Puedes pensar en la media como el "promedio", pero
ten cuidado, ya que esa palabra tiene muchas
definiciones en matemática.
4. Restale la media a cada punto de datos
Los puntos de datos cercanos a la media tendrán
una diferencia más cercana a cero. Repite la resta
para cada punto de datos y comenzarás a tener
una noción aproximada de qué tan dispersos
están los datos.
5. Eleva al cuadrado todas las respuestas
Ahora, algunos de los números del paso
anterior serán negativos mientras que
otros serán positivos. Si dibujas tus datos
en una línea numérica, estas dos
categorías representarán los números que
están a la izquierda de la media y los que
están a la derecha de la media.
Estos valores no son de mucha ayuda para
calcular la varianza, ya que los dos grupos
se cancelarían entre sí. Eleva al cuadrado
cada uno de los números para
transformarlos en valores positivos.
6. Encuentra la media de tus resultados
Ahora tienes un valor para cada punto de datos,
relacionado (indirectamente) con la dispersión que
ese punto de datos tiene respecto de la media.
Calcula la media de estos valores sumándolos y
luego dividiendo la suma por la cantidad de valores.
7. Relaciona este valor nuevamente con la
formula
Si no estás seguro acerca de cómo coincide este valor con la fórmula que aplicaste al principio
de este método, intenta escribir todo el problema a mano:
ESTADISTICA NO PARAMETRICA
En la estadística paramétrica se asume que la población de la cual la muestra es extraída es
normal. Esta propiedad es necesaria para que la prueba de hipótesis sea válida.

Sin embargo, en un gran numero de casos no se puede determinar la distribución original ni la


distribución de los estadísticos por lo que en realidad no tenemos parámetros a estimar.
Tenemos solo distribuciones que comparar. Esto se llama ESTADISTICA NO-PARAMÉTRICA.
VENTAJAS
◦ Sin requisitos previos.
◦ Con n pequeña (<30) puede no haber alternativa.

DESVENTAJAS
◦ Se necesita transformar los valores en rangos (rango: valor arbitrario del orden del dato en el conjunto).
◦ No suele aparecer en programas informáticos, la interpretación es mas directa
PRUEBAS NO PARAMETRICAS
Una prueba no paramétrica es una prueba de hipótesis que no
requiere que la distribución de la población sea caracterizada por
ciertos parámetros.

Por ejemplo, muchas pruebas de hipótesis parten del


supuesto de que la población sigue una distribución normal
con los parámetros μ y σ.

Las pruebas no paramétricas no parten de este supuesto, de


modo que son útiles cuando los datos son considerablemente
no normales y resistentes a transformaciones.
Pruebas no paramétricas y sus
alternativas paramétricas

Prueba no paramétrica Prueba paramétrica alternativa


Prueba de signos de 1 muestra Prueba Z de 1 muestra, prueba t de 1 muestra
Prueba de Wilcoxon de 1 muestra Prueba Z de 1 muestra, prueba t de 1 muestra
Prueba de Mann-Whitney Prueba t de 2 muestras
Prueba de Kruskal-Wallis ANOVA de un solo factor
Prueba de la mediana de Mood ANOVA de un solo factor
Prueba de Friedman ANOVA de dos factores
Modulo 3
Medidas epidemiológicas básicas: Incidencia, prevalencia, riesgo, odds ratio (OR).
Introducción
La epidemiología clínica aplica el método epidemiológico para producir conocimiento sobre el
proceso de la práctica clínica; aplica por tanto los mismos instrumentos para medir la frecuencia
no sólo de la enfermedad sino también de otros eventos que ocurren en la práctica clínica: curar,
solicitar una prueba diagnóstica, aplicar un tratamiento.
Esto provoca a veces, alguna confusión terminológica de la que probablemente no estén exentos
estos apuntes en los que se trata de estudiar:
◦ Las medidas de frecuencia de un evento (en epidemiología suele ser enfermar, pero en epidemiología
clínica también curación, muerte, etc.)
◦ Las medidas de asociación entre eventos (factores de riesgo, factores pronósticos, tratamientos,
enfermar, curar, morir, etc.) y las llamadas medidas de impacto
Prevalencia
Es la proporción de
individuos de una
población que
presentan el evento
en un momento, o
periodo de tiempo,
determinado.

Ø En la prevalencia
Es una proporción, Indica la “carga” del influye la velocidad
no tiene evento que soporta de aparición del
Es un indicador
dimensiones, su la población, tiene evento y su
estático, que se
valor oscila entre 0 y su mayor utilidad en duración; es por ello
refiere a un
1, aunque a veces se los estudios de poco útil en la
momento temporal.
expresa como planificación de investigación causal
porcentaje. servicios sanitarios y de medidas
terapéuticas
Incidencia
La incidencia refleja el número de nuevos “casos” en un periodo de tiempo. Es un índice
dinámico que requiere seguimiento en el tiempo de la población de interés. Cuando la
enfermedad es recurrente se suele referir a la primera aparición.
Se puede medir con dos índices:
Incidencia acumulada:
Es la proporción de individuos que desarrollan el evento durante el periodo de seguimiento. Se
calcula
Densidad (o tasa) de incidencia:
Para evitar la limitación de la incidencia acumulada se define este otro índice de incidencia:
La densidad, o tasa, de incidencia es el cociente entre el número de casos nuevos ocurridos
durante el periodo de seguimiento y la suma de todos los tiempos de observación. Se calcula
Comparaciones Incidencia - Prevalencia
PREVALENCIA
Es una buena medida para estimar el
Da información sobre la posibilidad Condicionada por la duración de la
coste poblacional de una enfermedad
de padecer ya la enfermedad enfermedad
crónica

INCIDENCIA
Requiere establecer un intervalo
Da información sobre la posibilidad Cuantifica bien la magnitud de
temporal de seguimiento para poder
de desarrollar la enfermedad enfermedades agudas
calcularse
Medidas de asociación e impacto: riesgo
Medidas de asociación e impacto son aquellas que cuantifican la relación existente entre
variables.

En epidemiología se denomina riesgo a la probabilidad de


Se define el riesgo como la probabilidad de que un individuo,
ocurrencia de un evento, típicamente enfermar, aunque
libre de enfermedad y susceptible de ella, la desarrolle en un
también morir, curar, etc.(en la terminología anglosajona se
periodo determinado, condicionada a que el individuo no
usan los términos risk y hazard, este último especialmente si
muera a causa de otra enfermedad durante el periodo.
el evento es morir).
La incidencia acumulada es un estimador de esta definición de riesgo, mientras que
la prevalencia es un estimador de otra posible definición de riesgo: probabilidad de
que un individuo de una determinada población tenga una enfermedad en un
momento o periodo de tiempo determinado.
En ambos casos se usa el cociente entre el riesgo en el grupo con el factor y el riesgo
en el grupo de referencia como índice de asociación y se denomina riesgo relativo
(RR).
No tiene dimensiones.

Características
Rango de 0 a ¥.
RR=1 si no hay asociación
entre la presencia del
factor y el evento.
RR >1 si la asociación es
positiva, es decir si la
presencia del factor se
asocia a mayor ocurrencia
del evento y RR<1 si la
asociación es negativa.
Odds ratio
Existe otra manera, proveniente del mundo del juego, de representar la probabilidad de ocurrencia
de un evento y es mediante el cociente entre la probabilidad de que ocurra el evento y la
probabilidad de que no ocurra. Este cociente, que en inglés se denomina odds, indica cuanto más
probable es la ocurrencia del evento que su no ocurrencia.
El odds ratio (OR) es el cociente entre el odds en el grupo con el factor y el odds en el grupo sin el
factor, se calcula:
Estudios epidemiológicos, clasificación por
control de asignación de factores de estudio:

Tipo de estudios epidemiológicos


Experimentales No experimentales
• Ensayo clínico • Estudios ecológicos
• Ensayo de campo • Estudios de prevalencia
• Ensayo comunitario de intervención. • Estudio de casos y controles
• Estudio de cohortes o de seguimiento.
Clasificación en base a la finalidad
Descriptivos

• En poblaciones:
• Estudios ecológicos
• En individuos
• A propósito de un caso
• Serie de casos
• Transversales/prevalencia

Analíticos

• Observacionales
• Estudio de casos y controles
• Estudio de cohortes (retrospectivo y prospectivo)
• Intervención
• Ensayo clínico
• Ensayo de campo
• Ensayo comunitario
Clasificación: Secuencia temporal
– Transversal:
• Los datos de cada sujeto representan un momento en el tiempo.
• No puede establecerse relaciones causales porque el factor y enfermedad se recoge
simultáneamente
– Longitudinal
• Las variables se recogen en tiempos diferentes
• Pueden ser descriptivos o analíticos
• Puede ir de causa a efecto (Cohortes) o de efecto a causa (Casos y controles)

http://fournier.facmed.unam.mx/deptos/seciss/images/investigacion/22.pdf
Clasificación inicio del estudio en relación
a la cronología de los hechos
Prospectivo Retrospectivo Ambispectivos

• El inicio del estudio • El inicio del estudio • Mezcla de


es anterior a los es posterior a los retrospectivo y
hechos estudiados. hechos estudiados prospectivo.
• Los datos se • Los datos se
recogen a medida recogen de archivos
que van o entrevistas sobre
sucediendo. los hechos
sucedidos.
Estudio de casos y controles
Identifica a personas con una enfermedad (u otra variable de interés) que estudiemos y los
compara con un grupo control apropiado que no tenga la enfermedad.

La relación entre uno o varios factores relacionados con la enfermedad se examina


comparando la frecuencia de exposición a éste u otros factores entre los casos y los controles .

A este tipo de estudio que es de los más utilizados en la investigación se le podría describir
como un procedimiento epidemiológico analítico, no experimental con un sentido
retrospectivo, ya que partiendo del efecto, se estudian sus antecedentes, en el que se
seleccionan dos grupos de sujetos llamados casos y controles según tengan o no la
enfermedad.
En los estudios de casos y controles (Tabla 4) tenemos casos expuestos (a), casos no expuestos (c),
controles expuestos (b) y controles no expuestos (d). En este estudio la frecuencia de exposición a la
causa entre los casos (a/c) se compara con la frecuencia de exposición en una muestra que
represente a los individuos en los que el efecto no se ha producido y entre los que la frecuencia de
exposición es (b/d).
Si la frecuencia de exposición a la causa es mayor en el grupo de casos de la enfermedad que en los
controles, podemos decir que hay una asociación entre la causa y el efecto.
La medida de asociación que permite cuantificar esta asociación se llama "odds ratio" (razón de
productos cruzados, razón de disparidad, razón de predominio, proporción de desigualdades, razón
de oposiciones, oposición de probabilidades contrarias, cociente de probabilidades relativas,
oportunidad relativa) y su cálculo se estima:
Los grandes temas que se deben abordar al realizar un estudio de casos y controles son después de la definición
de caso, la selección de los controles y las fuentes de información sobre la exposición y la enfermedad.

La selección de los casos debe:


◦ a. Establecer de forma clara y explícita la definición de la enfermedad y los criterios de inclusión.
◦ b. Los casos deben ser incidentes ya que los casos prevalentes: 1. Cambian sus hábitos en relación con la exposición. 2. Los
casos prevalentes pueden ser los sobrevivientes de casos incidentes y la supervivencia puede estar relacionada con la
exposición.

La selección del grupo control debe tener en cuenta:


◦ a. La función del grupo control es estimar la proporción de exposición esperada en un grupo que no tiene la enfermedad.
◦ b. Los controles deben ser representativos de la población de donde provienen los casos. Los casos y los controles no deben
entenderse como dos grupos representativos de dos poblaciones distintas, sino como dos grupos que proceden de una
misma población.
◦ c. Los controles deben ser comparables a los casos en el sentido de haber tenido la misma probabilidad de haber estado
expuestos.
Estudios de casos y controles
Ventajas Limitaciones
• Relativamente menos costosos que los estudios de • No estiman directamente la incidencia
seguimiento • Facilidad de introducir sesgos de selección y/o información.
• Corta duración • La secuencia temporal entre exposición y enfermedad no
• Aplicaciones para el estudio de enfermedades raras siempre es fácil de establecer.
• Permite el análisis de varios factores de riesgo para una
determinada enfermedad.
Estudio de cohorte y seguimiento
En este tipo de estudio los individuos son identificados en función de la presencia
o ausencia de exposición a un determinado factor.
En este momento todos están libres de la enfermedad de interés y son seguidos
durante un período de tiempo para observar la frecuencia de aparición del
fenómeno que nos interesa.
Si al finalizar el período de observación la incidencia de la enfermedad es mayor
en el grupo de expuestos, podremos concluir que existe una asociación
estadística entre la exposición a la variable y la incidencia de la enfermedad.
La cuantificación de esta asociación la podemos calcular construyendo una razón
entre la incidencia del fenómeno en los expuestos a la variable (le) y la incidencia
del fenómeno en los no expuestos (lo). Esta razón entre incidencias se conoce como
riesgo relativo y su cálculo se estima como (Tabla 5):
En este tipo de estudio como quiera que los participantes están libres de la enfermedad al inicio
del seguimiento, la secuencia temporal entre exposición y enfermedad se puede establecer más
claramente. A su vez este tipo de estudio permite el examen de múltiples efectos ante una
exposición determinada.
Estudios de Cohortes
Ventajas Limitaciones
• Estiman incidencia • Costo elevado
• Mejor posibilidad de sesgos en la medición de la exposición. • Dificultad de ejecución
• No son útiles en enfermedades raras
• Requieren generalmente de un tamaño de muestra elevado
• El paso del tiempo puede introducir cambios en los métodos y
criterios diagnósticos
• Posibilidad de pérdida en el seguimiento.
Modulo 4. Validez
La validez de un estudio depende de forma general de dos elementos, la validez interna ¿Qué tan
bien hecho está un estudio?, y la validez externa ¿Qué tan generalizable es en otros escenarios?.
Validez interna y externa.
La meta fundamental que todo estudio epidemiológico debe perseguir es la agudeza en la
medición. Por ello, que todo lo que amenace esta correcta medición debe ser identificado y
corregido. Los elementos que amenazan estas mediciones son:
◦ El Error Aleatorio
◦ El Error Sistemático.
La carencia de error aleatorio se conoce como La carencia del error sistemático se conoce como
precisión y se corresponde con la reducción del validez. Esta validez tiene dos componentes:
error debido al azar. 1. La validez interna, que es la validez de las
Los intervalos de confianza y el error estándar se inferencias a los sujetos reales del estudio
reducen al aumentar el tamaño muestral. La 2. La validez externa o generalización en tanto se
precisión también se puede mejorar modificando el aplica a individuos que están fuera de la población
diseño del estudio para aumentar la eficiencia de la del estudio. La validez interna es por tanto un
información que obtengo de los sujetos del estudio. prerrequisito para que pueda darse la extrema.
Se ve amenazada por varios tipos
de sesgos, son los errores
La validez interna que es la que sistemáticos en un estudio
implica validez de inferencia para epidemiológico que producen
los propios sujetos de estudio. una estimación incorrecta de
asociación entre la exposición y
la enfermedad.

En definitiva producen una


estimación equivocada del
efecto.
Tipos de sesgos
1. Sesgo de Selección

• Este sesgo hace referencia a cualquier error que se deriva del proceso de identificación de
la población a estudiar.
• La distorsión resulta de la forma en que los sujetos han sido seleccionados.
• Estos sesgos se pueden cometer:
• a. Al seleccionar el grupo control.
• b. Al seleccionar el espacio muestral donde se realizará el estudio.
• c. Por pérdidas en el seguimiento. d. Por la presencia de una supervivencia selectiva.

2. Sesgo de detección

• Se presenta cuando un sesgo de selección se modifica con el status de exposición.


3. Sesgo de información u observación.

• Este sesgo incluye cualquier error sistemático en la medida de información sobre la


exposición a estudiar o los resultados.
• Los sesgos de observación o información se derivan de las diferencias sistemáticas en
las que los datos sobre exposición o resultado final, se obtienen de los diferentes
grupos.
• El sesgo de información es por tanto una distorsión en la estimación del efecto por
errores de medición en la exposición o enfermedad o en la clasificación errónea de los
sujetos.
a. Instrumento
de medida no
adecuado.

f. Errores
introducidos por
b. Criterios
los
diagnósticos
cuestionarios o
incorrectos.
las
encuestadoras.
Las fuentes de
sesgo de
información
más frecuentes
son:

e. Errores en la
c. Omisiones.
clasificación.

d. Imprecisiones
en la
información.