Anda di halaman 1dari 4

HISTORIA DE LA ESTADSTICA Y LA PROBABILIDAD

La presencia del hueso astrgalo de oveja o ciervo en las excavaciones arqueolgicas ms antiguas, parece confirmar que los juegos de azar tienen una antigedad de ms de 40.000 aos, y la utilizacin del astrgalo en culturas ms recientes, ha sido ampliamente documentada. Existen en las pirmides de Egipto pinturas que muestran juegos de azar que datan del ao 3.500 a. C. y Herodoto se refiere a la popularidad y difusin en su poca de los juegos de azar, especialmente la tirada de astrgalos y dados. Los dados ms antiguos se remontan a unos 3000 aos antes de Cristo y se utilizaron en el juego como en ceremonias religiosas. Las civilizaciones antiguas, explicaban el azar mediante la voluntad divina. En Grecia y Roma, utilizaban la configuracin resultante de tirar cuatro dados para predecir el futuro y revelar la voluntad favorable o desfavorable de los dioses. Prcticas similares se han encontrado en culturas tan distintas como la tibetana, la india o la juda. Piaget ha hecho notar que esta actitud mgica ante el azar se manifiesta igualmente en los nios. En el Renacimiento aparece un nuevo enfoque global de considerar al mundo, induciendo una observacin cualitativamente distinta de muchos fenmenos naturales. El abandono progresivo de explicaciones teolgicas conduce a una reconsideracin de los experimentos aleatorios; y los matemticos italianos del siglo XVI, comienzan a interpretar los resultados de experimentos aleatorios simples. Cardano, establece la equiprobabilidad de aparicin de las caras de un dado a largo plazo. A finales del siglo XVI, exista un intuitivo pero preciso anlisis emprico de los resultados aleatorios. El desarrollo del anlisis matemtico de los juegos de zar se produce lentamente durante los siglos XVI y XVII, y algunos autores consideran como origen del clculo de probabilidades la resolucin del problema de los puntos en la correspondencia entre Pascal y Fermat en 1654. El clculo de probabilidades se consolida como disciplina independiente en el perodo que transcurre desde la segunda mitad del siglo XVII hasta comienzos del siglo XVIII. La teora de la probabilidad fue aplicada con buenos resultados a las mesas de juego y con el tiempo a otros problemas socioeconmicos. Durante el siglo XVIII el clculo de probabilidades se extiende a problemas fsicos y actuariales (seguros martimos). El factor principal impulsor es el conjunto de problemas de astronoma y fsica que surgen ligados a la contrastacin emprica de la teora de Newton. Estas investigaciones van a ser de importancia fundamental en el desarrollo de la Estadstica. La industria de los seguros, que naci en el siglo XIX, requera un conocimiento exacto del riesgo de perder pues de lo contrario no se podan calcular las

plizas. Al cabo de cincuenta aos, muchos centros de enseanza, estaban estudiando la probabilidad como un instrumento que les permitira entender los fenmenos sociales. La necesidad de comparar con exactitud los datos observados con la teora requera un tratamiento riguroso del mismo, que va a dar lugar a la teora de errores. D. Bernoulli proporciona la primera solucin al problema de estimar una cantidad desconocida a partir de un conjunto de mediciones de su valor que, por el error experimental, presentan variabilidad. Fue pionero en la aplicacin del clculo infinitesimal al clculo de probabilidades. Tambin Abraham de Moivre, el reverendo Thomas Bayes y Joseph Lagrange inventaron frmulas y tcnicas de probabilidad. El impulso fundamental proviene de la obra de Pierre Simon, Marqus de Laplace, quien indujo la primera definicin explcita de probabilidad y desarroll la ley normal como modelo para describir la variabilidad de los errores de medida; tambin formul y estim el primer modelo explicativo estadstico. Por su parte, Gauss hizo su aportacin en la estimacin de modelos estadsticos. Bravais, gelogo y astrnomo, es el primero en considerar la relacin entre errores de medida dependientes entre s; Benjamn Pierce propone el primer criterio para rechazar observaciones heterogneas con el resto y S. Newcomb, el ms famoso astrnomo americano del siglo XIX, introduce los primeros mtodos de estimacin cuando hay errores fuertes en algunos datos (Estimacin Robusta).

TOMA DE DECISIONES

En la actualidad la teora matemtica de la probabilidad constituye el fundamento de las aplicaciones estadsticas tanto en la investigacin cientfica, econmica, social, ingenieril como aspecto fundamental de la toma de decisiones. Vivimos en un mundo donde somos incapaces de pronosticar el futuro con absoluta certeza. La necesidad de sortear la incertidumbre nos lleva a estudiar y aplicar la teora de la probabilidad. En muchos casos nosotros, como ciudadanos honestos, tendremos algn conocimiento sobre los posibles resultados de una decisin. Si organizamos esta informacin y la analizamos sistemticamente, podremos reconocer nuestras suposiciones, comunicar a otros nuestro razonamiento y tomar una decisin ms inteligente de la que lograramos recurriendo a un mtodo que no sea cientfico. El hombre de negocios, as como el jugador de pquer o el estratega militar, debe tambin tomar decisiones en condiciones de incertidumbre con respecto al futuro. Su apreciacin del futuro se manifiesta al relacionar una probabilidad

numrica con cada evento posible que pueda influir en el resultado de sus decisiones, y si utiliza estas probabilidades, junto con informacin de ndole econmica, mejora el proceso de toma de decisiones. Para tener xito en la toma de decisiones, se necesita la capacidad de tratar sistemticamente con la incertidumbre misma mediante cuidadosas evaluaciones y aplicaciones de mtodos estadsticos concernientes a las actividades de los negocios.

LA TEORA DE LA PROBABILIDAD

La probabilidad relacionada con un evento es un nmero comprendido entre 0 y 1, y representa el riesgo o la posibilidad de que ocurra ese evento. Una probabilidad de (P = 0) significa que el evento es imposible; si P = 0.50, es tan probable que el evento ocurra como que no ocurra; si P = 1, es seguro que suceda. El valor de P no puede ser negativo ni mayor que uno. Se puede considerar que la probabilidad es la frecuencia relativa de "xitos" o aciertos (es decir, la ocurrencia de un evento determinado) en un proceso aleatorio en que se ha repetido un gran nmero de pruebas o ensayos. La frecuencia relativa es el nmero de "xitos" dividido entre el nmero de pruebas efectuadas.

Fuentes de Probabilidades Es posible estimar probabilidades mediante cualquiera de las tres siguientes maneras alternativas: 1. Frecuencia relativa de eventos pasados. Las probabilidades pueden estimarse a partir de las frecuencias relativas que se observen en un experimento controlado, o mediante muestreo de un universo grande y finito. La probabilidad a priori (previa) se deduce de la experiencia obtenida de la observacin prolongada. Las probabilidades de eventos complicados pueden determinarse a partir de las probabilidades de eventos ms sencillos, por medio de un mtodo de simulacin, utilizando un modelo experimental diseado para representar las condiciones reales del mismo. 2. Distribuciones tericas. Las probabilidades pueden determinarse sin recurrir a las frecuencias relativas. Estas probabilidades pueden determinarse a partir de la distribucin binomial, sin recurrir a experimentos o muestras basadas en la experiencia pasada. La validez de dichas distribuciones tericas depende de cun fielmente las hiptesis representen la realidad. 3. Apreciacin subjetiva. Si ninguno de los mtodos anteriormente mencionados pueden utilizarse, el responsable de la toma de decisiones

debe estimar las probabilidades en base a su juicio o criterio y experiencia. Una probabilidad subjetiva es una evaluacin que una persona que toma decisiones hace acerca de la vero similitud relativa de que ocurra un evento incierto, o sea, representa las "apuestas" que se hacen sobre la concurrencia de ese evento. Tales apreciaciones son sumamente personales y, por lo tanto, dos individuos pueden asignar diferentes probabilidades subjetivas al mismo evento. TIPOS DE PROBABILIDADES 1. Probabilidad simple. Probabilidad de que el dato escogido tenga una caracterstica. 2. Probabilidad conjunta. Probabilidad de escoger un dato con dos (o ms) caractersticas especficas. 3. Probabilidad marginal (al margen de la tabla). No es ms que la probabilidad simple, vista con otro enfoque; o sea, mientras que la probabilidad simple es un concepto singular, la probabilidad marginal es esencialmente una suma de probabilidades conjuntas. 4. Probabilidad condicional. La caracterstica especfica del dato es la condicin (condiciona la probabilidad). APLICACIONES La complejidad de los negocios en los ltimos aos, ha incrementado el uso de la estadstica para tomar decisiones en cualquier nivel de la administracin. Las aplicaciones de mtodos estadsticos en las diferentes reas son numerosas; por ejemplo: grficas y tablas estadsticas son usadas frecuentemente por gerentes de ventas para representar hechos numricos de ventas; mtodos de muestreo son empleados por investigadores de mercado, al hacer encuestas sobre las preferencias del consumidor sobre ciertas marcas de artculos competitivos; mtodos de control de calidad, aplicados en produccin, etc.

Anda mungkin juga menyukai