Anda di halaman 1dari 8

INTRODUCCION

La incertidumbre y la imprecisin son connaturales en el proceso de razonamiento.


La lgica establece unas reglas de inferencia a partir de las cuales se construye el
sistema de razonamiento deductivo, en el que una proposicin determinada es
considerada como cierta o falsa, sin que se admitan grados entre estos dos extremos.
Los mtodos de razonamiento aproximado, entre los que se encuentran los mtodos
bayesianos, aportan modelos tericos que simulan la capacidad de razonamiento en
condiciones de incertidumbre, cuando no se conoce con absoluta certeza
la verdad o falsedad de un enunciado o hiptesis, e imprecisin, enunciados en los que
se admite un rango de variacin.
Entre los mtodos de razonamiento aproximado se encuentran los mtodos bayesianos,
basados en el conocido teorema de Bayes. Todos ellos tienen en comn la asignacin de
una probabilidad como medida de credibilidad de las hiptesis. En este contexto, la
inferencia se entiende como un proceso de actualizacin de las medidas de credibilidad
al conocerse nuevas evidencias. Mediante la aplicacin del Teorema de Bayes se busca
obtener las probabilidades de las hiptesis condicionadas a las evidencias que se
conocen. La diferencia entre los distintos mtodos bayesianos, modelos causales y redes
bayesianas, estriba en las hiptesis de independencia condicional entre hiptesis y
evidencias. Dichas relaciones se expresan comnmente mediante un grafo acclico
dirigido.

Thomas Bayes
Thomas Bayes (Londres, Inglaterra, ~1702 - Tunbridge Wells, 1761) fue un matemtico britnico
y ministro presbiteriano. Su obra ms conocida es el Teorema de Bayes.

Biografa
Su padre tambin fue clrigo. Posiblemente De Moivre, autor del afamado libro La doctrina de las
probabilidades, fue su maestro particular, pues se sabe que por ese entonces ejerca como
profesor en Londres. Bayes fue ordenado, al igual que su padre, como ministro disidente, y en
1731 se convirti en reverendo de la iglesia presbiteriana en Tunbridge Wells; aparentemente
trat de retirarse en 1749, pero continu ejerciendo hasta 1752, y permaneci en ese lugar
hasta su muerte.
Estudi el problema de la determinacin de la probabilidad de las causas a travs de los efectos
observados.1 El teorema que lleva su nombre se refiere a la probabilidad de un suceso
condicionado por la ocurrencia de otro suceso. Ms especficamente, con su teorema se resuelve
el problema conocido como "de la probabilidad inversa". Esto es, valorar probabilsticamente las
posibles condiciones que rigen supuesto que se ha observado cierto suceso. Se trata de
probabilidad "inversa" en el sentido de que la "directa" sera la probabilidad de observar algo
supuesto que rigen ciertas condiciones. Los cultores de la inferencia bayesiana (basada en dicho
teorema) afirman que la trascendencia de la probabilidad inversa reside en que es ella la que
realmente interesa a la ciencia, dado que procura sacar conclusiones generales (enunciar leyes)
a partir de lo objetivamente observado, y no viceversa.

Miembro de la Royal Society desde 1742, Bayes fue uno de los primeros en utilizar la
probabilidad inductivamente y establecer una base matemtica para la inferencia probabilstica.
Los restos de Bayes descansan en el cementerio londinense de Bunhill Fields. La traduccin de la
inscripcin en su tumba es Reverendo Thomas Bayes. Hijo de los conocidos Joshua y Ann Bayes.
7 de abril de 1761. En reconocimiento al importante trabajo que realiz Thomas Bayes en
materia de probabilidades, su tumba fue restaurada en 1969 con donativos realizados por
estadsticos de todo el mundo.
Actualmente, con base en su obra, se ha desarrollado una poderosa teora que ha conseguido
notables aplicaciones en las ms diversas reas del conocimiento. Especial connotacin han
tenido los sistemas para deteccin de spam en el ambiente de Internet. En el campo sanitario, el
enfoque de la inferencia bayesiana experimenta un desarrollo sostenido, especialmente en lo
que concierne al anlisis de ensayos clnicos, donde dicho enfoque ha venido interesando de
manera creciente a las agencias reguladoras de los medicamentos, tales como la
norteamericana FDA (Food and Drug Agency).

Trabajos publicados
Divine Providence and Government Is the Happiness of His Creatures (1731)
An Introduction to the Doctrine of Fluxions, and a Defence of The Analyst (1736)
En 1763, dos aos despus de su muerte, se publica Essay Towards Solving a Problem in the
Doctrine of Chances, en el que trataba el problema de las causas a travs de los efectos
observados, y donde se enuncia el teorema que lleva su nombre. El trabajo fue entregado a la
Royal Society por Richard Price y es la base de la inferencia bayesiana.

Teorema de Bayes
En la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas
Bayes en 17631 que expresa la probabilidad condicional de un evento aleatorio A dado B en
trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de
probabilidad marginal de slo A.

En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme


relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado
A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene
gripe, se podra saber (si se tiene algn dato ms), la probabilidad de tener gripe si se
tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en
cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la
comprensin de la probabilidad de aspectos causales dados los efectos observados.
Sea
un conjunto de sucesos mutuamente excluyentes y
exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea
B un suceso cualquiera del que se conocen las probabilidades condicionales
Entonces, la probabilidad

donde:

viene dada por la expresin:

son las probabilidades a priori.

es la probabilidad de

son las probabilidades a posteriori.

en la hiptesis

Tho
mas Bayes (1763)

Frmula de Bayes
Con base en la definicin de Probabilidad condicionada, obtenemos la Frmula de Bayes, tambin
conocida como la Regla de Bayes:

Aplicaciones
El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad.
Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En
esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas
en experimentos repetibles y que tengan una confirmacin emprica mientras que los
llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede
servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas
cuando recibimos informacin adicional de un experimento. La estadstica bayesiana
est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento
subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la
evidencia emprica es lo que est abriendo nuevas formas de hacer conocimiento. Una
aplicacin de esto son los clasificadores bayesianos que son frecuentemente usados en
implementaciones de filtros de correo basura o spam, que se adaptan con el uso.

Como observacin, se tiene

y su demostracin resulta trivial.

EJEMPLO DEL TEOREMA DE BAYES


El teorema de Bayes parte de una situacin en la que es posible conocer las probabilidades de que
ocurran una serie de sucesos Ai.
A esta se aade un suceso B cuya ocurrencia proporciona cierta informacin, porque las
probabilidades de ocurrencia de B son distintas segn el suceso Ai que haya ocurrido.
Conociendo que ha ocurrido el suceso B, la frmula del teorema de Bayes nos indica como
modifica esta informacin las probabilidades de los sucesos Ai.

Ejemplo: Si seleccionamos una persona al azar, la probabilidad de que sea diabtica es 0,03.
Obviamente la probabilidad de que no lo sea es 0,97.
Si no disponemos de informacin adicional nada ms podemos decir, pero supongamos que al
realizar un anlisis de sangre los niveles de glucosa son superiores a 1.000 mg/l, lo que ocurre en el
95% de los diabticos y slo en un 2% de las personas sanas.
Cul ser ahora la probabilidad de que esa persona sea diabtica?
La respuesta que nos d el teorema de bayes es que esa informacin adicional hace que la
probabilidad sea ahora 0,595.
Vemos as que la informacin proporcionada por el anlisis de sangre hace pasar, la probabilidad
inicial de padecer diabetes de 0,03, a 0,595.
Evidentemente si la prueba del anlisis de sangre hubiese sido negativa, esta informacin
modificara las probabilidades en sentido contrario. En este caso la probabilidad de padecer
diabetes se reducira a 0,0016.
Calculadora de Bayes
Pr(A1):

Pr(B/A1):
0.

Pr(A2):

0.

Pr(B/A2):
0.

Pr(A3):

0.

Pr(B/A3):
0.

Pr(A4):

0.

Pr(B/A4):
0.

0.

Copy Right Jose M. Salinas. Para Adoracin

Inferencia bayesiana
La inferencia bayesiana es un tipo de inferencia estadstica en la que las evidencias u
observaciones se emplean para actualizar o inferir la probabilidad de que una hiptesis
pueda ser cierta. El nombre bayesiana proviene del uso frecuente que se hace del
teorema de Bayes durante el proceso de inferencia. El teorema de Bayes se ha derivado
del trabajo realizado por el reverendo Thomas Bayes. Hoy en da, uno de los campos de
aplicacin es en la teora de la decisin,1 visin artificial2 (simulacin de la percepcin
en general)3 y reconocimiento de patrones por ordenador.

Evidencia y creencias cambiantes


La inferencia bayesiana utiliza aspectos del mtodo cientfico, que implica recolectar
evidencia que se considera consistente o inconsistente con una hiptesis dada. A medida
que la evidencia se acumula, el grado de creencia en una hiptesis se va modificando.
Con evidencia suficiente, a menudo podr hacerse muy alto o muy bajo. As, los que
sostienen la inferencia bayesiana dicen que puede ser utilizada para discriminar
entre hiptesis en conflicto: las hiptesis con un grado de creencia muy alto deben ser

0.

0.

0.

0.

aceptadas como verdaderas y las que tienen un grado de creencia muy bajo deben ser
rechazadas como falsas. Sin embargo, los detractores dicen que este mtodo de
inferencia puede estar afectado por un prejuicio debido a las creencias iniciales que se
deben sostener antes de comenzar a recolectar cualquier evidencia.

Qu es lo atractivo de la Estadstica Bayesiana?


I) Construccin axiomtica
II) Una sola regla de decisin
III) La nica que ofrece solucin para ciertos problemas

Axiomas de coherencia
I) Comparacin
II) Transitividad
III) Dominancia-Sustitucin
IV) Referencia

Ejemplos de inferencia
Un ejemplo de inferencia bayesiana es el siguiente:

Durante miles de millones de aos, el sol ha salido despus de haberse puesto. El


sol se ha puesto esta noche. Hay una probabilidad muy alta de (o 'Yo creo
firmemente' o 'es verdad') que el sol va a volver a salir maana. Existe una
probabilidad muy baja de (o 'yo no creo de ningn modo' o 'es falso') que el sol no
salga maana.

La inferencia bayesiana usa un estimador numrico del grado de creencia en una


hiptesis an antes de observar la evidencia y calcula un estimador numrico del grado
de creencia en la hiptesis despus de haber observado la evidencia. La inferencia
bayesiana generalmente se basa en grados de creencia, o probabilidades subjetivas, en
el proceso de induccin y no necesariamente declara proveer un mtodo objetivo de
induccin.

DEFINICIONES FORMALES
A pesar de todo, algunos estadsticos bayesianos creen que las probabilidades pueden
tener un valor objetivo y por lo tanto la inferencia bayesiana puede proveer un mtodo
objetivo de induccin. (Ver mtodo cientfico.) Dada una nueva evidencia, el teorema de
Bayes ajusta las probabilidades de la misma de la siguiente manera:
P(H0|E)=P(E|H0)P(H0)P(E)
donde
H0 representa una hiptesis, llamada hiptesis nula, que ha sido inferida antes de
que la nueva evidencia, E, resultara disponible.
P(H0) se llama la probabilidad a priori de H0.

P(E|H0) se llama la probabilidad condicional de que se cumpla la evidencia E si la


hiptesis H0 es verdadera. Se llama tambin la funcin de verosimilitud cuando se
expresa como una funcin de E dado H0.
P(E) se llama la probabilidad marginal de E: la probabilidad de observar la nueva
evidencia E bajo todas las hiptesis mutuamente excluyentes. Se la puede calcular
como la suma del producto de todas las hiptesis mutuamente excluyentes por las
correspondientes probabilidades condicionales: P(E|Hi)P(Hi).
P(H0|E) se llama la probabilidad a posteriori de H0 dado E.
El factor P(E|H0)/P(E) representa el impacto que la evidencia tiene en la creencia en la
hiptesis. Si es posible que se observe la evidencia cuando la hiptesis considerada
es verdadera, entonces este factor va a ser grande. Multiplicando la probabilidad a
priori de la hiptesis por este factor va a resultar en una gran probabilidad a
posteriori dada la evidencia. En la inferencia bayesiana, por lo tanto, el teorema de
Bayes mide cunto la nueva evidencia es capaz de alterar la creencia en la hiptesis.

Establecimiento de la inferencia
Los estadsticos bayesianos sostienen que aun cuando distintas personas puedan
proponer probabilidades a priori muy diferentes, la nueva evidencia que surge de
nuevas observaciones va a lograr que las probabilidades subjetivas se aproximen
cada vez ms. Otros, sin embargo, sostienen que cuando distintas personas proponen
probabilidades a priori muy diferentes, las probabilidades subjetivas a posteriori
pueden no converger nunca, por ms evidencias nuevas que se recolecten. Estos
crticos consideran que visiones del mundo que son completamente diferentes al
principio pueden seguir siendo completamente diferentes a travs del tiempo por
ms evidencias que se acumulen.
Multiplicando la probabilidad anterior P(H0) por el factor P(E|H0)/P(E) nunca se podr
obtener una probabilidad superior a 1. Ya que P(E) es al menos mayor que P(EH0), lo
que
permite
la
igualdad P(E|H0)P(H0) (vase probabilidad
conjunta),
reemplazando P(E) con P(EH0) en el factor P(E|H0)/P(E)esto dejar una probabilidad
posterior de 1. Por lo tanto, la probabilidad posterior no llegar a ser mayor que uno
slo si P(E) fuese menor que P(EH0), lo que nunca es cierto.
La probabilidad de E dado H0, P(E|H0), puede ser representada como una funcin de
su segundo argumento, lo que puede hacerse proporcionando un valor. Tal funcin se
denomina funcin de verosimilitud; es funcin de H0 dado E. Una proporcin de dos
funciones de verosimilitudes que se denomina proporcin de verosimilitud, . Por
ejemplo:
=L(H0|E)L(notH0|E)=P(E|H0)P(E|notH0)
La probabilidad marginal P(E), puede ser representada adems como la suma de
los productos de todas las probabilidades de las hiptesis exclusivas mutuamente
y
que
corresponden
a
probabilidades
condicionales: P(E|H0)P(H0)+P(E|
notH0)P(notH0).
Como resultado, se puede reescribir el teorema de Bayes como:
P(H0|E)=P(E|H0)P(H0)P(E|H0)P(H0)+P(E|notH0)P(notH0)=P(H0)P(H0)+P(notH0)

Con dos evidencias independientes E1 y E2, la inferencia bayesiana se puede


aplicar iterativamente. Se puede emplear la primera evidencia para calcular la
primera probabilidad posterior y emplear sta en el clculo de la siguiente
probabilidad y continuar de esta forma con las dems.
La independencia de evidencias implica que:
P(E1,E2|H0)=P(E1|H0)P(E2|H0)
P(E1,E2)=P(E1)P(E2)
P(E1,E2|notH0)=P(E1|notH0)P(E2|notH0)
Aplicando el teorema de Bayes de forma iterativa, implica
P(H0|E1,E2)=P(E1|H0)P(E2|H0)P(H0)P(E1)P(E2)
Empleando los ratios de verosimilitud, se puede encontrar que
P(H0|E1,E2)=12P(H0)[1P(H0)+P(notH0)][2P(H0)+P(notH0)],
Esta iteracin de la inferencia bayesiana puede ser expandida con la inclusin de ms
evidencias. La inferencia bayesiana se emplea en el clculo de probabilidades en la toma
de decisin. Se emplean en las probabilidades calculadas en la teora de clculo de
riesgos, en la denominada funcin de prdida que refleja las consecuencias de cometer
un error.

Bibliografa
Berger, J.O. (1999) Statistical Decision Theory and Bayesian Analysis. Second Edition.
Springer Verlag, New York. ISBN 0-387-96098-8 and also ISBN 3-540-96098-8.
Bolstad, William M. (2004) Introduction to Bayesian Statistics, John Wiley ISBN 0-47127020-2
Bretthorst, G. Larry, 1988, Bayesian Spectrum Analysis and Parameter Estimation in
Lecture Notes in Statistics, 48, Springer-Verlag, New York, New York
Dawid, A.P. and Mortera, J. (1996) Coherent analysis of forensic identification evidence.
Journal of the Royal Statistical Society, Series B, 58,425-443.
Foreman, L.A; Smith, A.F.M. and Evett, I.W. (1997). Bayesian analysis of
deoxyribonucleic acid profiling data in forensic identification applications (with
discussion). Journal of the Royal Statistical Society, Series A, 160, 429-469.
Gardner-Medwin, A. What probability should the jury address?. Significance. Volume 2,
Issue 1, March 2005
Gelman, A., Carlin, B., Stern, H., and Rubin, D.B. (2003). Bayesian Data Analysis.
Second Edition. Chapman & Hall/CRD, Boca Raton, Florida. ISBN 1-58488-388-X.
Gelman, A. and Meng, X.L. (2004). Applied Bayesian Modeling and Causal Inference
from Incomplete-Data Perspectives: an essential journey with Donald Rubin's statistical
family. John Wiley & Sons, Chichester, UK. ISBN 0-470-09043-X
Giffin, A. and Caticha, A. (2007) Updating Probabilities with Data and Moments
Jaynes, E.T. (1998) Probability Theory: The Logic of Science.

Lee, Peter M. Bayesian Statistics: An Introduction. Second Edition. (1997). ISBN 0-34067785-6.
O'Hagan, A. and Forster, J. (2003) Kendall's Advanced Theory of Statistics, Volume 2B:
Bayesian Inference. Arnold, New York. ISBN 0-340-52922-9.
Pearl, J. (1988) Probabilistic Reasoning in Intelligent Systems, San Mateo, CA: Morgan
Kaufmann.
Robert, C.P. (2001) The Bayesian Choice. Springer Verlag, New York.
Robertson, B. and Vignaux, G.A. (1995) Interpreting Evidence: Evaluating Forensic
Science in the Courtroom. John Wiley and Sons. Chichester.
Winkler, Robert L, Introduction to Bayesian Inference and Decision, 2nd Edition (2003)
Probabilistic. ISBN 0-9647938-4-9
www.wikipedia.com