Anda di halaman 1dari 51

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

FACULTAD DE MEDICINA HUMANA

V CURSO TEÓRICO PRÁCTICO DE


ESTADÍSTICA APLICADA A LAS
CIENCIAS DE LA SALUD

INTRODUCCIÓN AL ESTUDIO DE LAS


PROBABILIDADES
Probabilidad

El concepto de probabilidad se encuentra con bastante frecuencia


en la comunicación en el área de salud.

Ejemplos

¾ Un médico afirma que un paciente X tiene una oportunidad de


50% de sobrevivir a una operación; o que un paciente Y tiene
80% de posibilidades de tener una enfermedad particular;

¾ Una fuente autorizada del Ministerio de Salud; declara a la


prensa de que este verano hay 1% de posibilidades de que se
desate una epidemia de cólera en la Capital.
¿Por qué es necesario aprender a
calcular probabilidades ?
La medicina es una ciencia inexacta por lo que el médico raras
veces puede predecir un resultado con absoluta certeza.

Para formular el diagnóstico el médico debe contar con toda la


información posible acerca del paciente

Por ejemplo debe :

¾ Revisar la historia clínica


¾ Realizar un examen físico del paciente
¾ Solicitar estudios de laboratorio
¾ Resultados de rayos X, etc.
¿Por qué es necesario aprender
a calcular probabilidades ?

Aunque el resultado de ninguna prueba es absolutamente exacto,


eso no afecta la probabilidad de la presencia o ausencia de una
enfermedad.

Para cuantificar la incerteza inherente al proceso de toma de


decisiones, el médico se apoya en la teoría de las probabilidades

Por lo tanto :

Entender las probabilidades es fundamental para el proceso de


toma de decisiones en el área de salud.
¿Por qué es necesario aprender a
calcular probabilidades ?

La teoría de probabilidades también permite al médico


extraer conclusiones acerca de una población de
pacientes basado en la información acerca de un una
muestra de los mismos extraída de esa población.

Este proceso se denomina inferencia estadística.


Historia de la probabilidad.

Jacob Berooulli (1654 - 1705), Abraham de Moivre (1667 - 1754), el reverendo


Thomas Bayes (1702 - 1761) y Joseph Lagrange (1736 - 1813) desarrollaron
fórmulas y técnicas para el cálculo de la probabilidad. En el siglo XIX, Pierre
Simon, marqués de Laplace (1749 - 1827), unificó todas estas primeras ideas y
compiló la primera teoría general de la probabilidad.
La teoría de la probabilidad fue aplicada con éxito en las mesas de juego y, lo
que es más importante, en problemas sociales y económicos. La industria de
seguros requería un conocimiento preciso acerca de los riesgos de pérdida.
Muchos centros de aprendizaje estudiaron la probabilidad como una herramienta
para el entendimiento de los fenómenos sociales.
Nuestra necesidad de tratar con la incertidumbre nos lleva a estudiar y utilizar la
teoría de la probabilidad. Al organizar la información y considerarla de manera
sistemática, seremos capaces de reconocer nuestras suposiciones, comunicar
nuestro razonamiento a otras personas y tomar decisiones más sólidas.
Conceptos básicos sobre
probabilidad.

La probabilidad es la posibilidad de que algo ocurra.

Las probabilidades se expresan como fracciones o como


decimales que están entre uno y cero.

† Tener una probabilidad de cero significa que algo nunca


va
a suceder.
† Una probabilidad de uno indica que algo va a suceder
siempre.
Conceptos básicos sobre
probabilidad
Un experimento aleatorio es aquel en que se conocen todos
los posibles resultados, pero no se sabe cual va a ocurrir
Ejemplo :
El nacimiento de un niño es un experimento aleatorio, se
sabe que el niño puede ser varón o mujer , pero no se sabe
cual será el resultado.
Un evento es uno o más de los posibles resultados de un
experimento aleatorio.
Ejemplo :
Los eventos del experimento aleatorio son : varón, mujer
Conceptos básicos sobre
probabilidad

Al conjunto de todos los resultados posibles de un


experimento se le llama espacio muestral del experimento.

Ejemplo : Espacio muestral

{varón, mujer}
Se dice que dos eventos son mutuamente excluyentes si uno
y sólo uno de ellos puede tener lugar a un tiempo.

Cuando en una lista de los posibles eventos que pueden


resultar de un experimento se incluyen todos los resultados
posibles, se dice que la lista es colectivamente exhaustiva.
Definición de probabilidad

Existen tres maneras básicas de definir la probabilidad.


Estas tres definiciones presentan planteamientos
conceptuales bastante diferentes:

9 Definición clásica.
9 Frecuencia relativa de ocurrencia.
9 Probabilidad subjetiva.
Probabilidad clásica
Se define la probabilidad de que un evento ocurra como:

Número de resultados en los que se presenta el evento


Probabilidad =
Número total de posibles resultados

Cada uno de los resultados posibles debe ser igualmente


posible.

Ejemplo :
Probabilidad de que nazca una niña= 1/2
Probabilidad clásica
¾ La probabilidad clásica, a menudo, se le conoce como
probabilidad a priori, debido a que si utilizamos ejemplos
previsibles como monedas no alteradas, dados no
cargados y mazos de barajas normales, entonces podemos
establecer la respuesta de antemano, sin necesidad de
lanzar una moneda, un dado o tomar una carta. No
tenemos que efectuar experimentos para poder llegar a
conclusiones.
¾ Este planteamiento de la probabilidad tiene serios
problemas cuando intentamos aplicarlo a los problemas de
toma de decisiones menos previsibles.
¾ La probabilidad clásica supone también una especie de
simetría en el mundo
Frecuencia relativa de ocurrencia

En el siglo XIX, los estadísticos británicos,


interesados en la fundamentación teórica del
cálculo del riesgo de pérdidas en las pólizas de
seguros de vida y comerciales, empezaron a
recoger datos sobre nacimientos y defunciones.
En la actualidad, a este planteamiento se le llama
frecuencia relativa de ocurrencia de un evento.
Frecuencia relativa de ocurrencia

Se define la probabilidad como:

¾ La frecuencia relativa observada de un evento durante un


gran número de intentos, o
¾ La fracción de veces que un evento se presenta a la larga,
cuando las condiciones son estables.

Este método utiliza la frecuencia relativa de las ocurrencias


pasadas de un evento como una probabilidad. Determinamos
qué tan frecuentemente ha sucedido algo en el pasado y
usamos esa cifra para predecir la probabilidad de que suceda de
nuevo en el futuro.
Frecuencia relativa de ocurrencia

Ejemplo:
La prevalencia (probabilidad de ocurrencia) de una
enfermedad es calculada como:

Número de casos
Prevalencia=
Población en riesgo
Cuando utilizamos el planteamiento de frecuencia relativa para
establecer probabilidades, el número que obtenemos como
probabilidad adquirirá mayor precisión a medida que aumentan
las observaciones
Probabilidades subjetivas

Las probabilidades subjetivas están basadas en las


creencias de las personas que efectúan la
estimación de probabilidad.
La probabilidad subjetiva se puede definir como la
probabilidad asignada a un evento por parte de un
individuo, basada en la evidencia que se tenga
disponible. Esa evidencia puede presentarse en
forma de frecuencia relativa de presentación de
eventos pasados o puede tratarse simplemente de
una creencia meditada.
Probabilidades subjetivas
¾ Las valoraciones subjetivas de la probabilidad permiten
mayor flexibilidad que los otros dos planteamientos. Los
tomadores de decisiones puede hacer uso de cualquier
evidencia que tengan a mano y mezclarlas con los
sentimientos personales sobre la situación.
¾ Las asignaciones de probabilidad subjetiva se dan con
más frecuencia cuando los eventos se presentan sólo
una vez o un número muy reducido de veces.
¾ Como casi todas las decisiones sociales y
administrativas de alto nivel se refieren a situaciones
específicas y únicas, los responsables de tomar
decisiones hacen un uso considerable de la probabilidad
subjetiva
Cálculo de probabilidades
Probabilidad se define mejor en cuanto a frecuencia relativa. Así,
la probabilidad (P) de un fenómeno A está dada por P(A):

Número de veces que ocurre A


P ( A) =
Número total de veces que puede ocurrir A

Ejemplo: En una epidemia de intoxicación alimentaría, hubo 99


casos de la enfermedad (A) entre las 158 personas que acudieron
al banquete. La probabilidad de enfermar para una persona
seleccionada al azar es :
99
P ( A) = = 0.6266
158
Probabilidad condicional

En el ejemplo de intoxicación alimentaría, la probabilidad de que


enfermara una persona dada fue de 0.6266. Sin embargo, la
probabilidad de enfermedad (A) tendría que modificarse si se
supiera que alimento comió (B) la persona. Esto introduce la idea de
probabilidad condicional o, la probabilidad de que A ocurra dado
que B ha ocurrido. La probabilidad condicional para A dado B se
define como

número de veces que A y B ocurren juntas


P( A/ B) =
número de veces que ocurre B
Ejemplo:
Suponga que 133 personas comieron pavo (B) en el banquete y de
estas; 95 enfermaron (A). Se desea determinar la probabilidad de
enfermedad para personas que comieron pavo en el banquete.
Expresado como una probabilidad condicional, esto es:

Número de personas que comieron pavo y enfermaron


P( A / B) =
Número de personas que comieron pavo

95
P( A / B) = = 0.71
133
Fenómenos complejos

Los fenómenos que es expresan como combinaciones especificadas


( A y B ocurren) y los que se expresan como alternativas
especificadas (A o B ocurren) se denominan fenómenos complejos.

P(A y B) : probabilidad de que A y B ocurran juntos.


Si A y B no pueden ocurrir juntos, se denominan mutuamente
exclusivos, entonces P (A y B)=0

P (A o B) : probabilidad de que A ocurra o de que B ocurra o que ambas


ocurran.

En otras palabras, P (A o B) expresa la probabilidad que al menos una de


los eventos A o B ocurra
Regla de multiplicación
Dados dos eventos A y B. La probabilidad de que A y B ocurran se define
como:
P(A y B) = P(A/B) P(B)
Cuando los eventos A y B son independientes, se tiene
P(A y B)= P(A) P(B)

Ejemplo: Los efectos colaterales de un cierto fármaco sobrevienen en un


10% de los pacientes que lo toman. Un médico tiene dos enfermos que
están tomando el medicamento. ¿Cuál es la probabilidad de que ambos
experimentan efectos colaterales?
La aparición de efectos colaterales en un paciente no afecta las
probabilidades de haya dichos efectos en el otro (Independencia) .

P(ambos experimentan efectos colaterales)= 0.1 x 0.1 = 0.01 (1% )


Regla de la adición
Dados dos eventos A y B se define la probabilida de A o B ocurran como :
P(A o B)= P(A) + P(B)- P(A y B)

Cuando A y B son mutuamente exclusivas

P(A o B)= P(A) + P(B)

Ejemplo:
¿cuál es la probabilidad de que al menos uno de los pacientes del
médico presente efectos colaterales?
Uno de los pacientes A o B o ambos pueden presentar efectos
colaterales (los eventos no son excluyentes P(A y B)=0.01))

P(A o B) = 0.1 + 0.1 – 0.01 = 0.19


Ejemplo : Daño de órganos
en hipertensos
Se efectuó un estudio de daño de órgano terminal (Entwisle y
colaboradores, 1977) en hipertensos atendidos en un hospital
Universitario. Los datos del cuadro se compilaron a partir de 306 casos
de hipertensión recién identificados, y muestra datos de daño de
órgano terminal clasificados por gravedad de la hipertensión.
Responda a las preguntas siguientes

1. Cuál es la probabilidad de que un paciente nuevo con hipertensión


que acude a la clínica tenga antecedentes de angina?
2. Dado que el enfermo presenta hipertensión grave ¿cuál es la
probabilidad de que haya antecedentes de angina?
3. ¿Cuál es la probabilidad de que el electrocardiograma resulte normal
en un paciente nuevo que acude a la clínica?
Cuadro 1. Daño de órganos terminal en hipertensos

Gravedad de hipertensión
Antecedentes
Leve/Mod. Grave Total
18 7 25
Angina
243 38 281
Total 261 45 306

Enferm. 4 1 5
Cerebrovasc. 257 44 301
Total 261 45 306

Anormalidad 56 22 78
electrocardiográfica 205 23 228
Total 261 45 306
Variable aleatoria
Es una variable que cuantifica los resultados de un experimento
aleatorio o se puede decir también que es una variable que toma
diferentes valores como resultado de un experimento aleatorio.

Si la variable aleatoria puede tomar sólo un número limitado de


valores, entonces se dice que es una variable aleatoria discreta.
En el otro extremo, si puede tomar cualquier valor dentro de un
intervalo dado, entonces se trata de una variable aleatoria
continua.
Ejemplo

X : Número de casos de fiebre amarilla (Variable aleatoria discreta)

Y : Mediciones de glucosa en sangre (variable aleatoria continua).


Variables aleatorias y
Distribución de probabilidad .
Se puede pensar en una variable aleatoria como un valor o una
magnitud que cambia de un sujeto a otro, sin seguir una
secuencia predecible. Los valores de una variable aleatoria son
los valores numéricos correspondientes a cada posible resultado
de un experimento aleatorio.
Una distribución de frecuencias es un listado de las frecuencias
observadas de todos los resultados de un experimento que se
presentaron realmente cuando se efectuó el experimento, mientras
que una distribución de probabilidad es un listado de las
probabilidades de todos los posibles resultados que podrían
obtenerse si el experimento se lleva a cabo.
La distribución de probabilidad de una variable aleatoria
proporciona una probabilidad para cada valor posible, y estas
probabilidades deben sumar 1.
INTRODUCCIÓN A LAS DISTRIBUCIONES
DE PROBABILIDAD.

Las distribuciones de probabilidad están relacionadas


con las distribuciones de frecuencias.
Una distribución de frecuencias teórica es una
distribución de probabilidades que describe la forma en
que se espera que varíen los resultados.

Debido a que estas distribuciones tratan sobre


expectativas de que algo suceda, resultan ser modelos
útiles para hacer inferencias y para tomar decisiones en
condiciones de incertidumbre.
Definiciones

• Distribución de probabilidades (X, P(x))


• Modelo teórico que describe la forma en que varían los
resultados de un experimento aleatorio. Lista de los
resultados de un experimento con las probabilidades que se
esperarían ver asociadas con cada resultado.

• Función de probabilidad (X, F(x)) :


• Función que asigna probabilidades a cada uno de los valores
de una variable aleatoria discreta.
Modelo Probabilistico
Un modelo es una simplificación de la realidad.
Un modelo probabilístico es un modelo matemático que describe el
comportamiento de una variable aleatoria. Es una función que
depende de los valores de la variable aleatoria, y de otras
cantidades que caracterizan a una población en particular y que se
denominan parámetros del modelo.
En el proceso de modelación, es necesario seguir los siguientes pasos:

1. Seleccionar el modelo más apropiado.


2. Ajustar el modelo (calcular el valor de sus parámetros).
3. Verificar el modelo.
4. Decidir su aceptación o volver al paso 1.
Modelo Probabilistico
En el proceso de modelación, es necesario seguir los siguientes
pasos:
1. Seleccionar el modelo más apropiado.
2. Ajustar el modelo (calcular el valor de sus parámetros).
3. Verificar el modelo.
4. Decidir su aceptación o volver al paso 1.
Para ejecutar el paso 1, podemos optar por una amplia gama de
modelos de probabilidad, desarrollados para representar distintos
tipos de variables y diferentes fenómenos aleatorios. Por lo tanto, el
problema se reduce a elegir el modelo más apropiado para el caso
en estudio.
Para ejecutar el paso 2, es necesario recopilar una muestra
representativa de la población en estudio y calcular las cantidades
necesarias como para evaluar los parámetros del modelo.
La distribución Binomial

Esta distribución describe una variedad de procesos de interés para


los administradores y describe datos discretos, no continuos, que
son resultado de un experimento conocido como proceso de
Bernoulli.
Proceso de Bernoulli.

1. Cada repetición del experimento tiene sólo dos resultados


posibles (éxito/ fracaso.
2. La probabilidad del resultado de cualquier repetición
permanece
fijo con respecto al tiempo (P(éxito)= p ; P(fracaso) = 1-p = q
3. Los intentos son estadísticamente independientes.
Distribución Binomial
Ejemplo :

El experimento consiste en seleccionar aleatoriamente 3 pacientes


y determinar si tienen fiebre amarilla (éxito).
1. Sólo dos posibles resultados (tiene o no tiene la enfermedad)
2. La probabilidad de que un paciente tenga fiebre amarilla es p
( tasa de prevalencia).
3. La presencia de la enfermedad en un paciente es independiente
de la presencia en otro paciente
La variable aleatoria es :

X: Número de pacientes con fiebre amarilla


Distribución Binomial
Fórmula binomial:

⎛n⎞ x
P( x) = ⎜ ⎟ p (1 − p )n − x ; x=0,1,2,...n
⎝ x⎠
Donde :
p = Probabilidad de exito
1 - p = probabilidad de fracaso
x = número de éxitos deseados
n = número de repeticiones del experimento

Esta distribución es utilizada para modelar prevalencias


La distribución de Poisson.
La distribución de Poisson se utiliza para describir cierto tipo de procesos,
como por ejemplo:
™ El número de bacterias en un medio de cultivo,
™ Número de casos nuevos de una enfermedad en una ciudad
(incidencias),
™ La demanda (necesidades) de los pacientes que requieren
servicio en una institución de salud,
™ El número de accidentes registrados en una cierta intersección
de calles entre las 6 y 7 de la noche, etc.
Estos ejemplos tienen elementos en común :

† Pueden ser descritos mediante una variable aleatoria discreta que toma
valores enteros (0, 1, 2...),
El evento ocurre en un periodo de tiempo, un área, un volumen.
La distribución de Poisson.

Fórmula binomial:

eλ λ x
P( x) = ; x=0,1,2,...
x!
λ : Número medio de ocurrencias del evento

e : exponencial (su valor es 2.71828


X : Número de éxitos

Esta distribución se utiliza para modelar incidencias


Distribución Poisson
Ejemplo :
El número de suicidios en la Lima sigue una distribución Poisson.
Además se ha calculado que en promedio ocurren dos suicidios
por semana.
X: Número de suicidios
El modelo de probabilidad del número de suicidios será

e −2 2 x
P( x) = ; x=0,1,2,...
x!

La probabilidad de que la próxima semana ocurra1 suicidio se calcula


como:
e−2 21 e−2
P( x) = = = 0.1353
1! 1
FUENTES DE SESGOS EN LA
SELECCIÓN DE MUESTRAS
FUENTES DE SESGOS EN LA
SELECCIÓN DE MUESTRAS

Por otro lado, cuando se toma una decisión en base


a la información de una muestra siempre existe el riesgo de
cometer un error denominado error de muestreo, No es
posible eliminar este tipo de error a menos que el tamaño de
la muestra sea igual a la población (N=n), lo más que se
puede hacer es tratar de medirlo.
Este riesgo de conclusiones erradas debido a los
errores de muestreo puede ser medido siempre que las
muestras sean probabilísticas (muestras aleatorias).
COMPARACIÓN DE TIPOS DE
MUESTRAS

Muestra aleatoria

Cada persona (paciente) tiene igual chance (probabilidad)


de se ser seleccionado para la muestra. Dado que la
probabilidad de seleccionar cada elemento de la población
es conocida, el investigador puede usar las diversas reglas
y leyes de la probabilidad para evaluar la confiabilidad de
las conclusiones que se obtengan a partir de muestras
aleatorias.
COMPARACIÓN DE TIPOS DE
MUESTRAS

Muestra no aleatoria

Las personas (pacientes) no son seleccionados de acuerdo


a un esquema de selección aleatoria (muestra no
probabilística). Este tipo de muestras pueden ser muy útiles
para ciertos estudios; en los cuales no es indispensable que
las muestras sean aleatorias (probabilísticas) de la
población, sino que reúnan ciertas características
previamente especificadas
TIPOS DE MUESTRAS

a) Muestras aleatorias
† 1. Muestrea simple al azar
† 2. Muestra sistemática
† 3. Muestra estratificada
† 4. Muestra de conglomerados
† 5. Muestra secuencial
b) Muestras no aleatorias
† 1 Muestra de conveniencia
† 2. Muestras dirigidas
† 3. Muestra de voluntarios
† 4. Muestra de cuotas
TIPOS DE MUESTRAS

Muestreo secuencial

†(1) El número unidades seleccionadas (muestra) NO


es fijado
† antes el comenzar el proyecto.
†(2) Cada unidad de análisis (elemento de la muestra) es
† seleccionada y observada antes de seleccionar la
† siguiente unidad.
†(3) Cada unidad seleccionada es evaluada con
respecto a
† algún criterio, y tan pronto como se logra un
determinado
† nivel de este criterio se suspende el muestreo.
TIPOS DE MUESTRAS

Muestreo secuencial

†Ejemplo: Se selecciona dos grupos de


pacientes y se suministra una droga a un grupo y
un placebo o un tratamiento alternativo al otro.
Las personas seleccionadas para el estudio son
asignadas aleatoriamente a cada grupo. El
estudio es descontinuado cuando la droga
muestra una proporción significativamente mayor
sujetos que muestran mejoría comparado con el
grupo placebo u otro tratamiento.
VENTAJAS Y DESVENTAJAS DE LOS
DISEÑOS MUESTRALES ALEATORIOS Y NO
ALEATORIOS
Diseños Ventajas Ventajas
muestrales
† Minimiza la influencia del sesgo en † Costoso y consume tiempo.
la selección de la muestra. † Requiere el uso de mecánismos
† Las pruebas de hipótesis aleatorios para la selección de la
estadísticas asumen este tipo de muestra.
muestreo. † NO se garantiza que la muestra sea
Aleatoria
† La generalización de los resultados representativa de la población
hacia la población objetivo es más especialmente si la muestra es
simple. pequeña.

† Menos costoso † No garantiza que las muestras sean


† Administrativamente más fácil representativas.
No † Consume menos tiempo † .La generalización de los resultados
obtenidos en la muestra es
aleatoria cuestionable.
† Aumenta la posibilidad de que
ocurran sesgos en la selección.
EL TAMAÑO DE MUESTRA

Cuando decidimos realizar una investigación, de


inmediato surgen dos preguntas :

†1. ¿Cuántos pacientes son necesarios para que la


muestra
† represente a la población y se puedan realizar
inferencias
† válidas?
†2. ¿Cómo se debe seleccionar los individuos que
conformarán
† la muestra de modo que se eviten sesgos de
selección
† (método de selección)?.
EL TAMAÑO DE MUESTRA

Determinación del tamaño de nuestra depende de aspectos


prácticos como:

§ ¿Cuánto dinero tenemos para realizar el estudio?


§ ¿De cuánto tiempo disponemos para realizar el estudio y
presentar resultados?.
§ ¿Qué tan grande es la población sobre la cual queremos
hacer las inferencias?
§ ¿Qué tan accesible es la población ?
EL TAMAÑO DE MUESTRA

Depende de aspectos estadísticos como:

†§ ¿Qué tan rara es la característica que pretendemos


† investigar?
†§ ¿Qué tanta confianza queremos estamos dispuestos a
† depositar en los resultados de la muestra?
†§ ¿Cuál es el grado de variabilidad de la característica
† principal de nuestro estudio?.
EL TAMAÑO DE MUESTRA
Relación entre el error y el tamaño de muestra

grande
E
R
R
O
R

Pequeño

Pequeño Grande
TAMAÑO DE MUESTRA (n )
EL TAMAÑO DE MUESTRA

† El nivel de significación (α ) y la potencia (1- β).


El parámetro poblacional que se está investigando es
desconocido por lo que el error sólo puede ser establecido en
términos probabilísticos :.
ƒ - La potencia de una teste es su habilidad para detectar una
ƒ diferencia especificada cuando ella realmente está presente.
ƒ Cuanto mayor es la potencia del teste mayor será si
ƒ habilidad para rechazar una hipótesis nula falsa.
ƒ- El nivel de significación es la probabilidad de detectar una
ƒ diferencia cuando este no está presente.
EL TAMAÑO DE MUESTRA

Zα σ 2
Zα σ N 2 2

n= 2 n= 2 2
E Zα σ + E2 N

E : Margen de error
Z : Valor de la variable normal estándar para una probabilidad (1-α )
σ 2 : medida de variabilidad de la varible principal
N : Tamaño de la población

Anda mungkin juga menyukai