Anda di halaman 1dari 148

cdigos

monografico

PDF generado usando el kit de herramientas de fuente abierta mwlib. Ver http://code.pediapress.com/ para mayor informacin. PDF generated at: Sun, 30 Dec 2012 13:09:39 UTC

Contenidos
Artculos
introduccin
Cdigo Codificacin Codificacin (memoria) Cognicin Informacin Teora de la informacin Entropa (informacin) Informacin mutua Variable aleatoria Incertidumbre (metrologa) Incertidumbre de calibracin Tolerancia de fabricacin Precisin Exactitud Reproducibilidad Entropa Segundo principio de la termodinmica Constante de Boltzmann Neguentropa Ciclo de Carnot Mquina de Carnot Energa de Gibbs Cdigo morse Algoritmo de Huffman Deflacin (algoritmo) Entropa condicional Teorema de Bayes Cifrado (criptografa) Criptoanlisis Distancia de unicidad Ratio de entropa Proceso estocstico 1 1 2 2 14 16 21 27 33 36 41 42 43 44 45 45 46 51 59 60 63 68 69 71 74 77 78 79 80 84 93 99 103

Distribucin de probabilidad Aleatoriedad Teora de la computabilidad Teora de la complejidad computacional Teora de la computacin Ciencias de la computacin Clase de complejidad Problema de decisin Problema computacional Cdigo gentico

105 108 113 115 122 124 130 132 133 134

Referencias
Fuentes y contribuyentes del artculo Fuentes de imagen, Licencias y contribuyentes 142 144

Licencias de artculos
Licencia 145

introduccin
Cdigo
Cdigo puede referirse a: El siguiente trmino en teora de la comunicacin: El cdigo de comunicacin que se usa. El siguiente trmino en criptografa: El cdigo, indica un mtodo de ocultar el significado de los mensajes. Los siguientes trminos informticos: El cdigo binario, cdigo fundamental en el que se basan los ordenadores, el ms simple pues solo consta de dos elementos (0) y (1) que combinados de distintas maneras como impulsos elctricos ponen las bases para la informtica (vase codificacin digital). El cdigo fuente, en programacin, el texto escrito en un lenguaje de programacin que ha de ser compilado o interpretado para ejecutarse en una computadora. El cdigo objeto, en programacin, es el cdigo que resulta de la compilacin del cdigo fuente El software de cdigo libre, en programacin, es el software cuyo contenido puede ser utilizado libremente. Un cdigo alfanumrico. El siguiente trmino matemtico: La teora de cdigos, disciplina terica que trata los problemas de codificacin de la informacin. Los siguientes trminos de derecho: Un cdigo, en derecho, el conjunto unitario, ordenado y sistematizado de normas: Cdigo Civil, Cdigo Penal (vase codificacin jurdica). Un cdigo de conducta, trmino que a su vez tiene varias acepciones. Los siguientes trminos de ciencias naturales: El cdigo gentico, en biologa es la regla de correspondencia entre la serie de nucletidos en que se basan los cidos nucleicos y las series de aminocidos (polipptidos) en que se basan las protenas. Los siguientes libros: El cdigo y otras leyes del ciberespacio, un libro escrito por Lawrence Lessig. El cdigo 2.0, una actualizacin bajo licencia Creative Commons del libro El cdigo y otras leyes del ciberespacio escrito por Lawrence Lessig. Los siguientes sistemas de codificacin: Cdigo postal. Cdigo INEGI. Cdigo INSEE. Cdigo morse. Cdigo de aeropuertos de IATA. Cdigo de aeropuertos de OACI.

Codificacin

Codificacin
El trmino codificacin es tanto la accin de codificar, es decir, de transformar un contenido a un cdigo, as como los sistemas de cdigos derivados de aqulla. Puede referirse a: Codificacin de caracteres. Codificacin jurdica. Codificacin (memoria)

Codificacin (memoria)
La memoria es la capacidad para codificar, almacenar y recuperar informacin. Los recuerdos confieren a un organismo la capacidad de aprender y adaptarse a partir de las experiencias previas, as como establecer relaciones significativas. La codificacin permite convertir los tems percibidos en constructos que pueden ser almacenados en el cerebro y evocados posteriormente desde la memoria a corto plazo o la memoria a largo plazo. Por su parte, la memoria de trabajo almacena informacin con vistas a su uso o manipulacin inmediata.

Historia
Una de las primeras figuras representativas del estudio del proceso de codificacin memorstica es Hermann Ebbinghaus (18501909). Ebbinghaus fue un pionero en el campo de la investigacin de la memoria. Utilizndose a s mismo como sujeto de estudio, investig el modo en que la informacin se aprende y olvida mediante la repeticin de listas de slabas sin sentido.[1] Estos experimentos le llevaron a sugerir su clebre curva de aprendizaje.[1] Ebbinghaus encontr que las listas de elementos significativos que permitan realizar asociaciones entre s resultaban ms fciles de memorizar y recordar posteriormente. Estos resultados supusieron la base de la psicologa experimental de la memoria y otros procesos mentales que se desarrollara en los aos venideros. Durante los primeros aos del siglo XX se realizaron los primeros progresos en la investigacin de la memoria. Ivan Pavlov comenz sus Hermann Ebbinghaus investigaciones referentes al condicionamiento clsico. Sus estudios demostraron la posibilidad de crear relaciones semnticas entre dos elementos no relacionados. En 1932, Bartlett propuso la idea del esquema mental. Su modelo propona que la codificacin de nueva informacin dependa de su consistencia con el conocimiento adquirido con anterioridad (es decir, aquellas informaciones que encajaban en el sistema de esquemas mentales preexistentes eran ms sencillas de asimilar, memorizar y recordar).[2] Este modelo tambin sugera que la informacin que no se encuentra presente en el momento de la codificacin podra ser aadida a la memoria siempre y cuando estuviera basada en el conocimiento esquemtico acerca del mundo.[2] de este modo, la codificacin siempre estara influida por los conocimientos previos del sujeto. La Psicologa de la Gestalt puso de manifiesto el hecho de que los recuerdos de la informacin codificada solan ser diferentes de los estmulos que los haban producido. Adems, los recuerdos tambin se vean afectados por el contexto en el que los estmulos haban sido presentados. Con los avances alcanzados en el mbito de la tecnologa emergi el campo de la neuropsicologa, y con l, las teoras acerca de las bases biolgicas del proceso de codificacin. En el ao 1949, Donald Hebb trabaj en el estudio

Codificacin (memoria) de la relacin entre neurociencia y codificacin memorstica, estableciendo que la codificacin tena lugar a medida que se estableca nuevas conexiones entre neuronas a travs de su activacin conjunta repetida. En los aos 50 y 60, las teoras del procesamiento de la informacin realizaron una aproximacin al estudio de la memoria basado en los modelos computacionales, a partir de la idea inicial de que la codificacin era el proceso mediante el cual la informacin se introduce en la memoria. En 1956, George Armitage Miller escribi un clebre artculo en el que estableca que la capacidad del almacn de la memoria a corto plazo estaba limitada a 7 tems +/2, titulado The Magical Number Seven, Plus or Minus Two. Esta cifra fue posteriormente matizada, cuando los estudios referentes al chunking establecieron que esos siete +/- 2 elementos tambin podan consistir en paquetes o agrupaciones significativas de informacin, y no solamente a tems individuales. En 1974, Alan Baddeley y Graham Hitch propusieron su modelo de memoria de trabajo, consistente en un sistema ejecutivo central y dos subsistemas esclavos: la agenda visoespacial y el bucle fonolgico. Este sistema sera el encargado de codificar la informacin en la memoria. En el ao 2000, Baddeley aadi el "buffer" episdico.[3] Por su parte, Endel Tulving en 1983 propuso la idea de la codificacin especfica, en la que el contexto cobraba de nuevo una gran importancia en el proceso de codificacin.

Tipos
Las codificaciones visual, acstica y semntica son las que tienen lugar con mayor frecuencia, aunque tambin existen otros tipos.

Codificacin visual
La codificacin visual es el proceso de codificacin de imgenes e informacin sensorial de tipo visual. La informacin sensorial visual se almacena temporalmente en la memoria icnica[3] y en la memoria de trabajo antes de ser codificada de forma permanente en el almacn a largo plazo.[4][5] El modelo de Baddeley de la memoria de trabajo establece que la informacin visual es almacenada en la agenda visoespacial.[3] La amgdala es una estructura compleja que desempea un importante papel en la codificacin visual. Recibe informacin visual (as como de otras modalidades sensoriales) y codifica los valores positivos o negativos de los estmulos condicionados.[6]

Codificacin acstica
La codificacin acstica o auditiva es el proceso de codificacin de sonidos, palabras y todo tipo de informacin entrante de tipo auditivo para su almacenamiento y posterior recuperacin. De acuerdo con Baddeley, el procesamiento de la informacin auditiva se ve facilitado por el bucle fonolgico, que permite incorporar la informacin recibida al registro de memoria ecoica para ser repetida subvocalmente con el objetivo de facilitar el recuerdo.[3] Los estudios realizados al respecto indican que los factores semnticos, lxicos y fonolgicos interactan con la memoria verbal de trabajo. El efecto de similitud fonolgica se ve atenuado por el grado de concrecin de las palabras. Esto pone de manifiesto que la puesta en marcha de la memoria verbal de trabajo no depende nicamente de las representaciones fonolgicas y acsticas, sino que tambin interviene la representacin lingstica.[7] Lo que an no se ha establecido con precisin es el hecho de si las representaciones lingsticas se activan en el momento del recuerdo, o ms bien desempean un papel ms fundamental en el proceso de codificacin y preservacin.[7]

Codificacin (memoria)

Otras modalidades sensoriales


La codificacin tctil es el procesamiento y codificacin de las sensaciones a travs del tacto. Las neuronas de la corteza somatosensorial primaria (S1) reaccionan ante la estimulacin vibrotctil mediante su activacin sincronizada con cada serie de vibraciones.[8] Las sensaciones olfativas y gustativas tambin pueden ser codificadas. Por lo general, la codificacin que tiene lugar en el almacn de memoria a corto plazo se realiza a un nivel acstico, ms que a nivel semntico.

Codificacin semntica
La codificacin semntica es el procesamiento y la codificacin del input sensorial que tiene un significado particular o puede aplicarse a un contexto especfico. Pueden aplicarse diversas estrategias para facilitar la codificacin, como el chunking o las tcnicas mnemotcnicas, lo que en algunos casos posibilita una mayor profundidad en el procesamiento, lo que repercute en una optimizacin del proceso de recuperacin. Se ha encontrado que las palabras que se aprenden mediante un procesamiento semntico (profundo) se recuerdan ms fcilmente que las palabras procesadas de un modo no semntico (ms superficial), segn los tiempos de reaccin observados.[9] Las reas de Brodmann 45, 46 y 47 (la corteza prefrontal inferior izquierda) muestra una activacin significativamente superior bajo condiciones de codificacin semntica, en comparacin con la activacin mostrada durante una tarea que implique codificacin no semntica, independientemente de la dificultad de la tarea de codificacin no semntica planteada. Esta misma rea, que muestra un incremento en la activacin durante las fases iniciales de codificacin semntica, muestra una reduccin de su activacin si la tarea de codificacin semntica se vuelve repetitiva (usando las mismas palabras). Esto sugiere que este descenso en la activacin provocado por la repeticin es un proceso que tiene lugar especficamente cuando las palabras son reprocesadas de forma semntica, pero no cuando son reprocesadas de forma no semntica.[9]

Potenciacin a largo plazo


La codificacin es un proceso biolgico que comienza con la percepcin. El conjunto de sensaciones percibidas se procesa en el hipocampo, donde se fusionan en una nica experiencia individual.[10] El hipocampo es el responsable de analizar estos inputs y tomar la decisin de incorporarlos o no a la memoria a largo plazo. Las diferentes fuentes de informacin son almacenadas en diversas reas cerebrales en funcin de sus caractersticas. No obstante, an no se conoce con exactitud el modo en que estas piezas de informacin son identificadas y recordadas posteriormente.[10] En la codificacin interviene una combinacin de procesos qumicos y elctricos. Los neurotransmisores se liberan cuando un pulso elctrico atraviesa la sinapsis que sirve de conexin entre clulas nerviosas. Las extensiones dendrticas ramificadas reciben estos impulsos. El fenmeno denominado potenciacin a largo plazo es el proceso por el que se produce el reforzamiento de una conexin sinptica mediante el incremento del nmero de seales transmitidas entre dos neuronas. Estas clulas tambin son capaces de organizarse en grupos, especializndose en el procesamiento de diferentes clases de informacin. As, a medida que se producen nuevas experiencias, el cerebro va creando ms conexiones en lo que podra entenderse como un proceso de recableado. El cerebro se organiza y reorganiza a s mismo en respuesta a las nuevas experiencias, creando nuevos recuerdos a resultas de la experiencia, la educacin o el entrenamiento.[10] En consecuencia, el funcionamiento cerebral es un reflejo del modo en que el cerebro est organizado.[10] Esta capacidad para reorganizarse es una caracterstica especialmente importante para aquellos casos en los que se producen daos localizados en reas cerebrales especficas. El fenmeno por el que las neuronas cerebrales son capaces de reorganizar su modo de conectarse entre s se denomina plasticidad neuronal. No existe un conocimiento exacto de si los estmulos que no llegan a ser recordados son filtrados durante la fase sensorial, o despus de que el cerebro haya examinado su significatividad.[10]

Codificacin (memoria)

Actividad cerebral
La tomografa por emisin de positrones (TEP) muestra una activacin hipocampal anatmica y funcionalmente consistente durante los procesos de codificacin y evocacin episdicas. La activacin de la regin hipocampal asociada a la codificacin de la memoria episdica tiene lugar en la zona rostral, mientras que la activacin hipocampal asociada al proceso de recuperacin de recuerdos episdicos se localiza en la zona caudal.[11] A esto se le conoce como el Modelo de Codificacin/Recuperacin Hipocampal o modelo HIPER, por sus siglas en ingls (Hippocampal Encoding/Retrieval model). Existe un estudio mediante TEP en el que se midi el flujo sanguneo cerebral durante la codificacin y reconocimiento de caras, en participantes jvenes y mayores. El grupo de participantes jvenes mostr un incremento en el flujo sanguneo en el hipocampo derecho, as como en las cortezas temporal y prefrontal izquierdas durante la codificacin. Durante la fase de reconocimiento, el incremento en el flujo sanguneo se produjo en las cortezas parietal y prefrontal derechas.[12] El grupo de participantes de ms edad no mostraron una activacin significativa de las reas que s se revelaron importantes con el grupo de jvenes durante la fase de codificacin, aunque s mostraron una activacin prefrontal derecha durante el reconocimiento.[12] De este modo, puede concluirse que a medida que aumenta la edad, el fracaso en el recuerdo puede ser consecuencia de una codificacin estimular inadecuada, como se demuestra con la falta de activacin hipocampal y cortical observada en este grupo durante la fase de codificacin.[12] Algunos hallazgos recientes de estudios centrados en pacientes con trastorno de estrs post-traumtico muestran que los transmisores aminocidos glutamato y GABA, estn estrechamente relacionados con los procesos de registro de memoria factual (de hechos), y sugieren que los neurotransmisores norepinefrina y serotonina estn involucrados en la codificacin de la memoria emocional.[13]

Perspectiva molecular
An no se ha llegado a poder comprender completamente el proceso de codificacin, pero algunos avances han arrojado luz sobre la naturaleza de sus mecanismos. La codificacin comienza con una situacin novedosa, con la que el cerebro interacta y extrae conclusiones a partir de los resultados de esta interaccin. Es sabido que estas experiencias de aprendizaje desencadenan una cascada de sucesos moleculares que llevan a la formacin de recuerdos.[14] Estos cambios incluyen la modificacin de las sinapsis neuronales, la modificacin de protenas, la creacin de nuevas sinapsis, la activacin de la expresin gnica y nuevas sntesis de protenas. En cualquier caso, la codificacin puede producirse a diferentes niveles. El primer paso es la formacin de la memoria a corto plazo, tras lo que se produce el traslado de la informacin almacenada en este almacn a la memoria a largo plazo, para finalizar con el proceso de consolidacin de estos recuerdos.[15]

Plasticidad sinptica
La plasticidad sinptica es la capacidad del cerebro para fortalecer, debilitar, destruir y crear sinapsis neuronales, y supone la base del aprendizaje. Estas diferenciaciones moleculares identifican e indican la fuerza asociativa de cada conexin neuronal. El efecto de una experiencia de aprendizaje depende de su contenido. Aquellas reacciones que se ven favorecidas son reforzadas, y aquellas que se estiman desfavorables, se ven debilitadas. Esto demuestra que las posibles modificaciones sinpticas pueden operar por separado, con el objetivo de ser capaces de realizar cambios con el paso del tiempo, en funcin de la situacin concreta del organismo en un momento determinado. A corto plazo, los cambios sinpticos pueden consistir en el debilitamiento o el fortalecimiento de una conexin mediante la modificacin de las protenas preexistentes, lo que conduce a una modificacin en la fuerza asociativa de la conexin sinptica. A largo plazo, pueden establecerse nuevas conexiones completas, o bien puede incermentarse o reducirse el nmero de sinapsis de una conexin preexistente.[15]

Codificacin (memoria)

El proceso de codificacin
Un cambio significativo bioqumico a corto plazo es la modificacin covalente de las protenas preexistentes para modificar las conexiones sinpticas que ya se encuentran activas. Esto permite que los datos sean transferidos a la memoria a corto plazo sin que se produzca una consolidacin para su almacenaje permanente. A partir de este punto, puede seleccionarse una asociacin o un recuerdo especfico para trasladarlo a la memoria a largo plazo, o bien puede ser olvidado mediante la debilitacin de las conexiones sinpticas asociadas. El proceso de cambio de la memoria a corto pazo a la memoria a largo plazo implica tanto a la memoria implcita como a la memoria explcita. Este proceso est regulado por una serie de restricciones inhibitorias, principalmente el balance entre la fosforilacin y la desfosforilacin protenicas.[15] Por ltimo, los cambios a largo plazo son los que posibilitan la consolidacin de los recuerdos. Estos cambios incluyen la sntesis de nuevas protenas, la formacin de nuevas conexiones sinpticas, y finalmente, la activacin de la expresin gnica de acuerdo con la nueva configuracin neuronal.[16] Se ha descubierto que el proceso de codificacin est parcialmente mediado por las interneuronas serotoninrgicas, concretamente en lo referente a la sensibilizacin, de modo que el bloqueo de estas interneuronas imposibilita completamente esta sensibilizacin. No obstante, an no se han identificado con precisin las implicaciones ltimas de estos descubrimientos. Adems, se sabe que el proceso de aprendizaje conlleva la participacin de diversos transmisores modulatorios en el proceso de la consolidacin de recuerdos. Estos transmisores provocan que el ncleo inicie los procesos necesarios para generar el crecimiento neuronal y el recuerdo a largo plazo, marque las sinapsis especficas para la puesta en marcha de los procesos a largo plazo, y regule la sntesis local de protenas. Tambin parece influir incluso en los procesos atencionales requeridos para la formacin y la recuperacin de los recuerdos.

Aspectos genticos del proceso de codificacin


La memoria humana, incluido el proceso de codificacin, se considera un rasgo hereditario controlado por ms de un gen. De hecho, los estudios realizados con gemelos sugieren que las diferencias genticas son las responsables del 50% de la varianza observada en tareas de memoria.[14] Las protenas identificadas en estudios con animales han sido asociadas directamente con una cascada de reacciones moleculares que conducen a la formacin de recuerdos, y un nmero considerable de estas protenas son codificadas por genes que tambin se expresan en humanos. De hecho, las variaciones en estos genes parecen estar asociadas a las diferencias de capacidad memorstica, y han sido identificadas en recientes estudios genticos realizados con seres humanos.[14]

Procesos complementarios
La idea de que el cerebro se encuentra dividido en dos redes de procesamiento complementarias (tareas positivas y tareas negativas) se ha convertido en los ltimos tiempos en un rea de inters creciente. La red de tareas positivas trabaja con los procesos orientados hacia el exterior, mientras que la red de tareas negativas trabaja con los procesos orientados hacia el interior. Las investigaciones indican que estas redes de trabajo no son exclusivas, y algunas tareas se solapan en su activacin. Un estudio realizado en 2009 muestra que puede existir una codificacin adecuada y una actividad de deteccin de estmulos novedosos por parte de la red de tareas positivas que se solapan de forma significativa, lo que sugiere la existencia de una asociacin comn de los procesos orientados hacia el exterior.[17] Este estudio tambin muestra que los errores de codificacin y los xitos en la recuperacin comparten un solapamiento significativo en la red de tareas negativas, lo que indica una asociacin comn de los procesos orientados hacia el interior.[17] Por ltimo, un bajo nivel de solapamiento entre actividades exitosas de codificacin y de evocacin, y entre errores de codificacin y actividad de deteccin de novedades (respectivamente) indican la existencia de modalidades opuestas de procesamiento.[17] En resumen; las redes de tareas positivas y las de tareas negativas pueden mostrar asociaciones comunes durante el desarrollo de diferentes tareas.

Codificacin (memoria)

Profundidad del procesamiento


El modo en que la informacin se recuerda se ve influido por los distintos niveles de procesamiento aplicados. Estos niveles pueden ilustrarse mediante la distincin entre repeticin de mantenimiento y repeticin elaborativa.

Repeticin de mantenimiento y repeticin elaborativa


La repeticin de mantenimiento es una forma de procesamiento superficial que implica focalizar la atencin en un contenido sin pensar en su significado o su asociacin con otros contenidos. Por ejemplo, la repeticin subvocal de un nmero de telfono para mantenerlo en la memoria hasta poder apuntarlo en un papel es una forma de repeticin de mantenimiento. Por el contrario, la repeticin elaborativa o relacional es una forma ms profunda de procesamiento que implica pensar en el significado de los contenidos, as como establecer asociaciones entre el contenido, las experiencias pasadas y el resto de contenidos relacionados que estn siendo objeto de atencin. Utilizando el ejemplo del nmero de telfono, podra favorecerse un procesamiento ms profundo relacionando esos nmeros con fechas que sean significativas a nivel personal, como la fecha de cumpleaos de algn pariente o amigo (experiencias pasadas), o hallando algn patrn en el orden de los dgitos que pueda ayudar a recordarlos despus.[18] El nivel de procesamiento ms profundo que tiene lugar con la repeticin elaborativa la hace ms eficaz que la simple repeticin de mantenimiento en la tarea de crear nuevos recuerdos.[] Esto se ha visto demostrado con el hecho de la falta de conocimiento mostrada por las personas acerca de los detalles relacionados con los objetos de la vida cotidiana. Por ejemplo, un estudio realizado con participantes norteamericanos consista en preguntar acerca de la orientacin de la cara que apareca en una de las monedas de su pas (de un cntimo de dlar), encontrndose que solo unas pocas personas eran capaces de recordarlo con cierto grado de certeza. A pesar de tratarse de un detalle que se observa muy a menudo, no se recuerda porque no existe la necesidad de memorizarlo, ya que el color es la caracterstica que mejor distingue a esa moneda del resto.[19] La ineficacia de la repeticin de mantenimiento en la creacin de recuerdos tambin se ha puesto de manifiesto en la comprobacin de la falta de recuerdo de la gente acerca de la disposicin de los nmeros del 0 al 9 en calculadoras y telfonos.[20] La repeticin de mantenimiento se ha revelado de gran importancia en el aprendizaje, pero sus efectos slo pueden ser demostrados mediante el uso de mtodos indirectos como las tareas de decisin lxica,[21] o de completar palabras[22] utilizadas en la evaluacin del aprendizaje implcito. Por lo general, los aprendizajes realizados mediante repeticin de mantenimiento no se ponen de manifiesto cuando la memoria est siendo evaluada de forma directa o explcita, con preguntas como Es esta la palabra que se le ha mostrado anteriormente?

Intencin de aprender
Algunos estudios han mostrado que la intencin de aprender no tiene efectos directos en la codificacin de recuerdos. Por el contrario, la codificacin depende del grado de profundidad con que cada tem es codificado, aspecto que puede verse afectado por la intencin de que haya aprendizaje, pero no de forma exclusiva. Esto es, la existencia de una intencin de aprender puede llevar a desarrollar estrategias de aprendizaje ms efectivas, y en consecuencia, a realizar una mejor codificacin, pero un aprendizaje adquirido de forma incidental (sin intencin de aprender) en el que se procese y aprenda la informacin de forma efectiva, ser codificado con la misma eficacia que si se hubiera aprendido de forma intencional.[23] Los efectos de la repeticin elaborativa o el procesamiento profundo pueden atribuirse al nmero de conexiones realizadas durante el proceso de codificacin que incrementan el nmero de rutas disponibles para la recuperacin de la informacin.[24]

Codificacin (memoria)

Codificacin ptima
Puede entenderse que la organizacin es la clave para lograr una memorizacin superior. Como se ha desarrollado en la seccin anterior sobre los niveles del procesamiento, las conexiones que se establecen entre el tem a recordar y otros tems a recordar, las experiencias previas y el contexto, generan nuevas rutas de recuperacin para el tem a recordar, facilitando la evocacin. Estas conexiones imponen una organizacin en el tem a recordar, hacindolo ms evocable.[25]

Mnemotecnias
Las estrategias mnemotcnicas son un ejemplo de cmo establecer una organizacin en un conjunto de tems ayuda a su memorizacin y posterior recuerdo. En ausencia de ningn tipo de organizacin aparente en un grupo de datos, puede imponerse esta organizacin alcanzndose as los mismos resultados de mejora del recuerdo. Un ejemplo de estrategia mnemnica relacionada con la imposicin de una organizacin es el sistema peg-palabra, consistente en establecer una asociacin entre los tems a recordar y una lista de elementos fcilmente recordables. Otro ejemplo de mecanismo mnemotcnico utilizado habitualmente es recordar la primera letra de cada palabra a recordar y formar un acrnimo. De esta forma, las estrategias mnemotcnicas no solo favorecen la codificacin de tems especficos, sino tambin su orden. Para conceptos ms complejos, la comprensin es la clave del recuerdo. En un estudio realizado por Wisemann y Neisser en 1974, se les presentaba a los participantes una fotografa (la imagen de un dlmata en estilo puntillista, lo que dificultaba la visin de la imagen).[26] Se encontr que el recuerdo de la imagen mejoraba cuando los participantes ciomprendan el significado de lo que estaban viendo.

Chunking
Otra forma por la que la comprensin del material puede ayudar a su recuerdo es reducir la cantidad de material a recordar mediante un proceso de chunking. Consiste en organizar los elementos en grupos significativos. Estas agrupaciones de elementos son recordados como una unidad, en lugar de como elementos separados. Las palabras pueden considerarse un ejemplo de chunking, en donde en lugar de percibir letras aisladas, percibimos y recordamos su agrupacin significativa: la palabra. El uso de esta estrategia incrementa el nmero de tems que somos capaces de recordar mediante la formacin de paquetes significativos en los que muchos tems relacionados se almacenan como si se tratara de una unidad.

Aprendizaje dependiente de estado


Para una codificacin ptima, no solo se establecen conexiones entre los tems y las experiencias pasadas, sino tambin con el estado interno de la persona que codifica y la situacin en la que se encuentra inmerso. Las conexiones que se establecen entre el estado interno o el contexto y los tems a recordar son dependientes del estado. En un estudio de 1975 realizado por Godden y Baddeley se mostraron los efectos del aprendizaje dependiente del estado. Los participantes eran saltadores de trampoln, a los que se les pidi que memorizaran una informacin bajo dos condiciones diferentes: bajo el agua, y al borde de la piscina. Se encontr que cuando la prueba de recuerdo se efectuaba en las mismas condiciones en las que se haba producido el aprendizaje, los resultados eran mejores. Esto es, aquellos participantes que haban memorizado los datos bajo el agua, recordaban con ms facilidad cuando se encontraban bajo el agua que cuando se encontraban en tierra. Se haba establecido una asociacin entre el contexto de aprendizaje y el material a recordar, por lo que en el momento del recuerdo, el contexto serva de indicio para la recuperacin.[27] Tambin se han encontrado resultados similares con la presentacin de determinados olores durante la codificacin.[28] No obstante, a pesar de que el ambiente externo en el momento de la codificacin es importante para crear mltiples rutas para el recuerdo posterior, otros estudios han demostrado que la simple creacin del mismo estado interno que se tena en el momento del aprendizaje es suficiente para servir como pista de recuperacin.[29] As, recrear el mismo

Codificacin (memoria) estado mental que se tena durante el proceso de codificacin puede ayudar al recuerdo del mismo modo que puede ayudar el hecho de encontrarse en el mismo contexto. Este fenmeno, denominado efecto de restablecimiento del contexto, fue demostrado por Fisher y Craik en 1977, cuando emparejaron las pistas de recuperacin con el modo en que la informacin haba sido memorizada.[30]

Especificidad en la codificacin
El contexto del aprendizaje influye en el modo en que la informacin se codifica.[31] Por ejemplo, Kanisha, en el ao 1979, realiz un estudio en el que mostr a los particpantes una imagen que podra interpretarse como una copa blanca sobre un fondo negro, o como dos caras negras enfrentadas sobre un fondo blanco.[32] Los participantes fueron primados para ver la copa. Despus se les mostr de nuevo la imagen, pero en esa ocasin fueron primados para que vieran las caras negras sobre el fondo blanco. A pesar de que se trataba de la misma imagen que antes, cuando se les pregunt si ya la haban visto con anterioridad, la mayora respondi que no. La explicacin a este fenmeno radica en el efecto que tuvo el primado en la primera Una figura ambigua, que puede ser percibida ocasin en que se les mostr la imagen, que provoc que codificaran la como una copa o como dos perfiles enfrentados. imagen de forma diferente, hacindola irreconocible. Esto demuestra que los estmulos son comprendidos conjuntamente con el contexto en que se han presentado, as como la regla general de que lo que realmente muestra la existencia de un buen aprendizaje son aquellos tests que evalan los contenidos aprendidos del mismo modo en que fueron aprendidos.[32] Adems, para garantizar un recuerdo posterior ms eficaz, deben considerarse las condiciones futuras en las que se deber recordar, y estudiar la informacin de modo que pueda realizarse una asociacin satisfactoria en ese momento futuro.

Modelos computacionales de codificacin memorstica


Los modelos computacionales de codificacin memorstica han sido desarrollados para lograr alcanzar una mejor comprensin y simulacin de los aspectos del funcionamiento de la memoria humana, en ocasiones an impredecible. Se han desarrollado diversos modelos para distintas tareas memorsticas, que incluyen el reconocimiento de tems, el recuerdo con indicios, el recuerdo libre y la memoria secuencial, en un intento de explicar los comportamientos observados experimentalmente.

Reconocimiento de tems
En una tarea de reconocimiento de tems se le pregunta al participante si un tem determinado ya se le ha presentado con anterioridad o no. Es importante resear que el reconocimiento de un tem puede incluir su contexto. Esto es, puede preguntarse al participante si un tem determinado ha sido presentado anteriormente en una lista de estudio. por ejemplo, aunque el participante pueda haber visto la palabra "manzana" en algn momento a lo largo de su vida, si no la ha visto en la lista de estudio, no deber clasificarla como ya vista. Es decir, la tarea requiere el recuerdo dentro del contexto de presentacin. El reconocimiento de tems puede ser implementado utilizando la teora de las huellas mltiples y el modelo de atribucin de similitud.[33] A modo de resumen, cada tem que se percibe puede representarse como un vector de sus atributos, que se extiende a travs de un vector que representa el contexto en el momento de la codificacin, y se almacena en una red o matriz de memoria de todos los tems que se han visto a lo largo de la vida. Cuando se presenta un tem de prueba, se computa la suma de las similitudes de cada tem en la matriz (que es inversamente

Codificacin (memoria) proporcional a la suma de las distancias entre el vector de prueba y cada tem en la matriz de memoria). Si la similitud es superior a un valor de corte determinado, se producira el reconocimiento del tem. Los tems vistos ms recientemente, que tienen un vector contextual similar al vector contextual del momento de la tarea de reconocimiento, sern reconocidos ms fcilmente como ya vistos que aquellos que han sido percibidos hace mucho tiempo.

10

Recuerdo con indicios


En el recuerdo con indicios, se pide al sujeto que recuerde el tem que ha sido emparejado con un tem de prueba determinado. Por ejemplo, se puede suministrar una lista de pares nombre/cara, y despus pedir que se diga el nombre que se ha asociado a una cara determinada. El recuerdo con indicios puede explicarse extendiendo el modelo de similitud de atributos usado en el reconocimiento de tems. Dado que en el recuerdo con indicios puede darse una respuesta equivocada ante un tem de prueba, el modelo debe extenderse para poder contemplar esa posibilidad. Esto puede conseguirse aadiendo ruido a los vectores de los tems cuando se almacenan en la matriz de memoria. Adems, el recuerdo con indicios puede ser modelado de un modo probabilstico semejante al de cada uno de los tems almacenados en la matriz de memoria: cuanta mayor sea la similitud entre el tem prueba u el tem a recordar, ms sencillo ser que tenga lugar el recuerdo. Como los tems de la matriz de memoria contienen ruido entre sus valores, este modelo puede explicar los recuerdos incorrectos, como sera llamar a una persona por un nombre equivocado.

Recuerdo libre
En el recuerdo libre se permite evocar en cualquier orden los tems que han sido previamente aprendidos. Por ejemplo, una tarea de recuerdo libre sera solicitar a una persona que nombrara el mayor nmero posible de pases de Europa. El recuerdo libre puede modelarse usando el modelo de bsqueda de memoria asociativa, SAM (por sus siglas en ingls, Search of Associative Memory). Este modelo est basado en el modelo de doble almacenamiento propuesto por primera vez por Atkinson y Shiffrin en el ao 1968.[34] El modelo SAM se basa en dos componentes principales: el almacn a corto plazo (ACP) y el almacn a largo plazo (ALP). Resumiendo su funcionamiento podra decirse que cuando se percibe un tem, se introduce en el ACP, donde se mantiene junto a otros tems hasta que se desplaza y se incorpora al ALP. Cuanto ms tiempo est el tem en el ACP, mayores probabilidades habr de que sea desplazado por la entrada de un nuevo tem. Cuando varios tems coexisten simultneamente en el ACP, las conexiones establecidas entre ellos se fortalecen. El modelo SAM asume que los tems en el ACP siempre estn disponibles para su recuerdo inmediato. El modelo SAM es capaz de explicar tanto el efecto de primaca como el efecto de recencia. Probabilsticamente, los tems que se encuentran al comienzo de una lista tendrn ms posibilidades de permanecer en el ACP, y en consecuencia, tendrn ms oportunidades de fortalecer sus lazos con los dems tems. As, los primeros tems de una lista suelen ser recordados en las tareas de recuerdo libre (efecto de primaca). Respecto a los ltimos elementos de la lista: dado que los tems del ACP siempre estn disponibles para su recuperacin, y que desde su presentacin hasta el momento de la tarea de recuerdo no han irrumpido en el ACP otros tems que puedan hacer interferencia, los ltimos tems de la lista tambin podrn ser recordados con facilidad (efecto de recencia).

Codificacin (memoria)

11

Memoria secuencial
La memoria secuencial es la responsable del modo en que recordamos listas de elementos en las que el orden es importante. Por ejemplo, los nmeros de telfono son listas ordenadas de nmeros de un solo dgito. Actualmente existen dos principales modelos computacionales que pueden aplicarse a la codificacin secuencial: el modelo de encadenamiento asociativo y el modelo de codificacin posicional. La teora del encadenamiento asociativo establece que cada tem de una lista est enlazado a los elementos vecinos inmediatos (anterior y posterior).[35] Segn este modelo, los enlaces hacia adelante seran ms fuertes que los enlaces hacia atrs, y los enlaces hacia los vecinos ms cercanos seran ms fuertes que los establecidos con los vecinos ms alejados en la lista. Por ejemplo, el encadenamiento asociativo predice satisfactoriamente las tendencias de los errores de transposicin, que tienen lugar ms a menudo entre tems que se encuentran en posiciones cercanas entre s. Un ejemplo de error de transposicin podra ser la secuencia manzana, naranja, pltano en lugar de manzana, pltano, naranja. La teora de la codificacin posicional sugiere que cada tem de una lista est asociado a su posicin en esa lista.[36] Por ejemplo, si la lista est formada por las palabras manzana, pltano, naranja, mango, la palabra manzana estara asociada con la posicin nmero 1; pltano con la posicin nmero 2, etc. Adems, cada tem tambin estara asociado, aunque de una forma ms dbil, con su posicin +/- 1; an ms dbilmente con la posicin +/- 2, etc. As, la palabra pltano no solamente estara asociada a la posicin 2, sino tambin a las posiciones 1, 3 y 4, aunque con niveles de fuerza asociativa variables. Por ejemplo, la codificacin posicional puede ser utilizada para explicar los efectos de primaca y de recencia. Ya que los tems iniciales y finales de una lista tienen un menor nmero de vecinos cercanos que los tems centrales, se enfrentan a menos competencia para ser correctamente recordados. Aunque los modelos de encadenamiento asociativo y codificacin posicional son capaces de explicar una gran cantidad de comportamientos observados en la memoria secuencial, estn lejos de ser perfectos. Por ejemplo, ninguno de los dos es capaz de ilustrar apropiadamente los detalles del Efecto Ranschburg, que hace referencia al hecho de que las secuencias de tems que contienen elementos repetidos son ms difciles de reproducir que aquellas secuencias que no contienen elementos repetidos.[37] El encadenamiento asociativo predice que el recuerdo de listas que contienen tems repetidos se ve empeorado porque el recuerdo de cualquier elemento repetido podra servir como pista no solamente para su verdadero sucesor, sino tambin para el resto de los tems iguales que se encuentran en otros puntos de la secuencia. No obstante, los datos experimentales han mostrado que la repeticin espaciada de los tems provoca un recuerdo empobrecido de la segunda aparicin del tem repetido.[38] Adems, no se produce un efecto constatable en el recuerdo de los tems que siguen a los tems repetidos, lo que contradice la prediccin de la teora del encadenamiento asociativo. Por su parte, el modelo de la codificacin posicional predice que los tems repetidos no tendrn ningn efecto en el recuerdo, ya que las posiciones de cada tem de la lista actuarn como indicios independientes para cada elemento, incluyendo los elementos repetidos. As, no habra diferencia entre la similaridad entre dos tems cualesquiera, y los tems repetidos. En cambio, una vez ms estas predicciones no son consistentes con los datos observados experimentalmente. En resumen, puede decirse que a da de hoy an no existe un modelo comprensivo definido que explique satisfactoriamente el funcionamiento de la memoria secuencial en todas sus manifestaciones.

Codificacin (memoria)

12

Notas
[1] Ebbinghaus, H. (1885). Memory: A Contribution to Experimental Psychology. [2] Bartlett, F. C. (1932) (en ingls). Remembering: A study in experimental and social psychology. Cambridge, Inglaterra: Cambridge University Press. [3] Baddeley, A., Eysenck, M.W., y Anderson, M.C. (2009) (en ingls). Memory. Londres: Psychology Press. pp.27, 44-59. [4] Sperling, G. (febrero 1963). A model for visual memory tasks (http:/ / aris. ss. uci. edu/ HIPLab/ staff/ sperling/ PDFs/ Sperling_VM_Model_1963. pdf) (en ingls, PDF). Human Factors 5: pp.19-31. PMID 13990068 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 13990068). . Consultado el 4 de junio de 2011. [5] Sperling, G. (1967). Successive approximations to a model for short term memory (en ingls). Acta Psychologica 27: pp.285-292. doi: 10.1016/0001-6918(67)90070-4 (http:/ / dx. doi. org/ 10. 1016/ 0001-6918(67)90070-4). PMID 6062221 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 6062221). [6] Belova, M.A., Morrison, S.E., Paton, J.J., y Salzman, C.D. (2006). The primate amygdala represents the positive and negative value of visual stimuli during learning (http:/ / www. ncbi. nlm. nih. gov/ pmc/ articles/ PMC2396495/ ) (en ingls). Nature 439 (7078): pp.865-870. doi: 10.1038/nature04490 (http:/ / dx. doi. org/ 10. 1038/ nature04490). PMID 16482160 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 16482160). . Consultado el 4 de junio de 2011. [7] Acheson, D.J., MacDonald, M.C., y Postle, B.R. (2010). The Interaction of Concreteness and Phonological Similarity in Verbal Working Memory (http:/ / psych. wisc. edu/ postlab/ pubs/ AchesonJEPLMC2010. pdf) (en ingls, PDF). Journal of Experimental Psychology: Learning, Memory and Cognition 36 (1): pp.17-36. doi: 10.1037/a0017679 (http:/ / dx. doi. org/ 10. 1037/ a0017679). PMID 20053042 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 20053042). . Consultado el 4 de junio de 2011. [8] Crawley, AP., Davis, KD., Mikulis. DJ. y Kwan, CL. (1998). Function MRI study of thalamic and cortical activation evoked by cutaneous heat, cold, and tactile stimuli (http:/ / jn. physiology. org/ content/ 80/ 3/ 1533. full. pdf) (en ingls, PDF). Journal of Neurophysiology 80 (3): pp.1533-46. PMID 9744957 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 9744957). . Consultado el 4 de junio de 2011. [9] Demb,JB., Desmond, JE., Gabrieli, JD., Glover, GH., Vaidya, CJ., y Wagner, AD. Semantic encoding and retrieval in the left inferior prefrontal cortex: a functional MRI study of task difficulty and process specificity (http:/ / www. jneurosci. org/ content/ 15/ 9/ 5870. full. pdf) (en ingls, PDF). The Journal of Neuroscience 15 (9): pp.5870-5878. PMID 7666172 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 7666172). . Consultado el 4 de junio de 2011. [10] Mohs, Richard C. (8 de mayo de 2007). How Human Memory Works (http:/ / health. howstuffworks. com/ human-memory. htm) (en ingls). HowStuffWorks.com. Consultado el 6 de junio de 2011. [11] Lepage, M., Habib, R. y Tulving. E. (1998). Hippocampal PET activations of memory encoding and retrival: The HIPER model (http:/ / alicekim. ca/ Hiper. pdf) (en ingls, PDF). Hippocampus 8 (4): pp.313-322. doi: 10.1002/(SICI)1098-1063(1998)8:4<313::AID-HIPO1>3.0.CO;2-I (http:/ / dx. doi. org/ 10. 1002/ (SICI)1098-1063(1998)8:4<313::AID-HIPO1>3. 0. CO;2-I). PMID 9744418 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 9744418). . Consultado el 6 de junio de 2011. [12] Grady, CL., Horwitz, B., Haxby, JV., Maisog, JM., McIntosh, AR., Mentis, MJ., Pietrini, P., Schapiro, MB., y Underleider, LG. (julio 1995). Age-related reductions in human recognition memory due to inpaired encoding (en ingls). Science 269 (5221): pp.218-221. doi: 10.1126/science.7618082 (http:/ / dx. doi. org/ 10. 1126/ science. 7618082). PMID 7618082 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 7618082). [13] Birmes, P., Escande, M., Schmitt, L. y Senard, JM. (2002). Biological Factors of PTSD: neurotransmitters and neuromodulators (en ingls). Encephale 28 (3): pp.241-247. PMID 12091785 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 12091785). [14] Wagner M., Schuhmacher A., Schwab S., Zobel A. y Maier W. (2008). The His452Tyr variant of the gene encoding the 5-HT(2a) receptor is specifically associated with consolidation of episodic memory in humans (en ingls). International Journal of Neuropsychopharmacology 11 (8): pp.1163-1167. doi: 10.1017/S146114570800905X (http:/ / dx. doi. org/ 10. 1017/ S146114570800905X). PMID 18611292 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 18611292). [15] Kandel, E. (2004). The Molecular Biology of Memory Storage: A Dialog Between Genes and Synapses (https:/ / wiki. brown. edu/ confluence/ download/ attachments/ 11706/ Kandel,+ Science+ 2001. pdf) (en ingls, PDF). Bioscience Reports 24 (4-5). doi: 10.1126/science.1067020 (http:/ / dx. doi. org/ 10. 1126/ science. 1067020). PMID 11691980 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 11691980). . Consultado el 7 de junio de 2011. [16] Sacktor, T.C. (2008). PKMz, LTP Maintenance, and the dynamic molecular biology of memory storage (http:/ / www. neuro. iastate. edu/ Uploads/ Sacktor_ProgBrainRes_2008. pdf) (en ingls, PDF). Progress in Brain Research 169 (7): pp.2-7. doi: 10.1016/S0079-6123(07)00002-7 (http:/ / dx. doi. org/ 10. 1016/ S0079-6123(07)00002-7). ISSN 00796123 (http:/ / worldcat. org/ issn/ 00796123). PMID 18394466 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 18394466). . Consultado el 7 de junio de 2011. [17] Cabeza, R., Daselaar, S.M., y Hongkeun, K. (2009). Overlapping brain activity between episodic memory encoding and retrieval: Roles of the task-positive and task-negative networks (http:/ / www. ncbi. nlm. nih. gov/ pmc/ articles/ PMC2764805/ ) (en ingls). Neuroimage 49 (1): pp.1145-1154. doi: 10.1016/j.neuroimage.2009.07.058 (http:/ / dx. doi. org/ 10. 1016/ j. neuroimage. 2009. 07. 058). PMID 19647800 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 19647800). . Consultado el 7 de junio de 2011. [18] Craik, F. I. M., y Watkins, M. J. (1973). The role of rehearsal in short-term memory (http:/ / people. southwestern. edu/ ~giuliant/ LOP_PDF/ CraikRehearsalinSTM1973. pdf) (en ingls, PDF). Journal of Verbal Learning and Verbal Behavior 12 (6): pp.599-607. doi: 10.1016/S0022-5371(73)80039-8 (http:/ / dx. doi. org/ 10. 1016/ S0022-5371(73)80039-8). . Consultado el 7 de junio de 2011.

Codificacin (memoria)
[19] Nickerson, R. S. & Adams, M. J. (1979). Long-term memory for a common object (en ingls). Cognitive Psychology 11 (3): pp.287-307. doi: 10.1016/0010-0285(79)90013-6 (http:/ / dx. doi. org/ 10. 1016/ 0010-0285(79)90013-6). [20] Rinck, M. (1999). Memory for everyday objects: Where are the digits on numerical keypads? (http:/ / www18. homepage. villanova. edu/ diego. fernandezduque/ Teaching/ CognitivePsychology/ Lectures_and_Labs/ s6LongTermMemory/ MemoryForEverydayObjects/ zzMemoryfoButtons. pdf) (en ingls, PDF). Applied Cognitive Psychology 13 (4): pp.329-350. doi: 10.1002/(SICI)1099-0720(199908)13:4<329::AID-ACP583>3.0.CO;2-3 (http:/ / dx. doi. org/ 10. 1002/ (SICI)1099-0720(199908)13:4<329::AID-ACP583>3. 0. CO;2-3). . Consultado el 7 de junio de 2011. [21] Oliphant, G. W. (1983). Repetition and recency effects in word recognition (en ingls). Australian Journal of Psychology 35 (3): pp.393-403. doi: 10.1080/00049538308258751 (http:/ / dx. doi. org/ 10. 1080/ 00049538308258751). [22] Graf, P., Mandler, G., y Haden, P. E. (1982). Simulating amnesic symptoms in normal subjects (en ingls). Science 218 (4578): pp.1243-1244. doi: 10.1126/science.7146909 (http:/ / dx. doi. org/ 10. 1126/ science. 7146909). PMID 7146909 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 7146909). [23] Hyde, Thomas S. y Jenkins, James J. (1973). Recall for words as a function of semantic, graphic, and syntactic orienting tasks (http:/ / people. southwestern. edu/ ~giuliant/ LOP_PDF/ Hyde1973. pdf) (en ingls, PDF). Journal of Verbal Learning and Verbal Behavior 12 (5): pp.471-480. doi: 10.1016/S0022-5371(73)80027-1 (http:/ / dx. doi. org/ 10. 1016/ S0022-5371(73)80027-1). . Consultado el 7 de junio de 2011. [24] Craik, F. I., y Tulving, E. (1975). Depth of processing and the retention of words in episodic memory (http:/ / www-pmhs. stjohns. k12. fl. us/ teachers/ higginj/ 0CF7DB48-0118C716. 0/ Chapter18_Craik. pdf) (en ingls, PDF). Journal of Experimental Psychology: General 104 (3): pp.268-294. doi: 10.1037/0096-3445.104.3.268 (http:/ / dx. doi. org/ 10. 1037/ 0096-3445. 104. 3. 268). . Consultado el 7 de junio de 2011. [25] Katona, G. (1940) (en ingls). Organizing and memorizing. Nueva York: Columbia University Press. [26] Wiseman, S., y Neisser, U. (diciembre 1974). Perceptual organization as a determinant of visual recognition memory (en ingls). American Journal of Psychology 87 (4): pp.675-681. doi: 10.2307/1421974 (http:/ / dx. doi. org/ 10. 2307/ 1421974). PMID 4463729 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 4463729). [27] Godden, D. R., y Baddeley, A. D. (1975). Context-dependent memory in two natural environments: On land and underwater (http:/ / www. niu. edu/ user/ tj0dgw1/ classes/ 411/ GoddenBaddeley1975. pdf) (en ingls, PDF). British Journal of Psychology 66 (3): pp.325-331. doi: 10.1111/j.2044-8295.1975.tb01468.x (http:/ / dx. doi. org/ 10. 1111/ j. 2044-8295. 1975. tb01468. x). . Consultado el 7 de junio de 2011. [28] Cann, A., y Ross, D. A. (1989). Olfactory stimuli as context cues in human memory (en ingls). American Journal of Psychology 102 (1): pp.91-102. doi: 10.2307/1423118 (http:/ / dx. doi. org/ 10. 2307/ 1423118). PMID 2929788 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 2929788). [29] Smith, S. M. (1979). Remembering in and out of context (en ingls). Journal of Experimental Psychology: Human Learning and Memory 5 (5): pp.460-471. doi: 10.1037/0278-7393.5.5.460 (http:/ / dx. doi. org/ 10. 1037/ 0278-7393. 5. 5. 460). [30] Fisher, R. P., y Craik, F. I. (1977). Interaction between encoding and retrieval operations in cued recall (en ingls). Journal of Experimental Psychology: Human Learning and Memory 3 (6): pp.701-711. doi: 10.1037/0278-7393.3.6.701 (http:/ / dx. doi. org/ 10. 1037/ 0278-7393. 3. 6. 701). [31] Tulving, E. (1983). Elements of episodic memory. Oxford, Inglaterra: Oxford University Press. [32] Kanizsa, G. (1979) (en ingls). Organization in vision. Nueva York: Praeger. [33] Hintzman, Douglas L. y Block, Richard A. (1971). Repetition and memory: Evidence for a multiple-trace hypothesis (en ingls). Journal of Experimental Psychology 88 (3): pp.297-306. doi: 10.1037/h0030907 (http:/ / dx. doi. org/ 10. 1037/ h0030907). [34] Raaijmakers, J. G. W., Schiffrin, R. M. (1981). Search of associative memory (en ingls). Psychological Review 8 (2): pp.98-134. doi: 10.1037/0033-295X.88.2.93 (http:/ / dx. doi. org/ 10. 1037/ 0033-295X. 88. 2. 93). [35] N. A. Henson, Richard (1996). Unchained Memory: Error Patterns Rule out Chaining Models of Immediate Serial Recall (http:/ / www. mrc-cbu. cam. ac. uk/ people/ rik. henson/ personal/ HensonEtAl_QJEPA_96. pdf) (en ingls, PDF). The Quarterly Journal of Experimental Psychology Section A: Human Experimental Psychology 49 (1): pp.80-115. doi: 10.1080/713755612 (http:/ / dx. doi. org/ 10. 1080/ 713755612). . Consultado el 8 de junio de 2011. [36] Coding Position in Short-term Memory (en ingls). International Journal of Psychology 34 (5-6): pp.403-409. 1999. doi: 10.1080/002075999399756 (http:/ / dx. doi. org/ 10. 1080/ 002075999399756). [37] Piron, Henri (1993). Vocabulario de Psicologa (http:/ / books. google. es/ books?id=uxoDZO35AZwC& printsec=frontcover#v=onepage& q& f=false). Madrid, Espaa: Akal. p.444. ISBN 8446002388. . Consultado el 8 de junio de 2011. [38] Crowder, R. G. (1968). Intraserial repetition effects in immediate memory (en ingls). Journal of Verbal Learning and Verbal Behavior 7 (2): pp.446-451. doi: 10.1016/S0022-5371(68)80031-3 (http:/ / dx. doi. org/ 10. 1016/ S0022-5371(68)80031-3).

13

Cognicin

14

Cognicin
El concepto de cognicin (del latn: cognoscere, "conocer") hace referencia a la facultad de procesar informacin a partir de la percepcin, el conocimiento adquirido (experiencia) y caractersticas subjetivas que permiten valorar la informacin. Los procesos cognitivos pueden ser naturales o artificiales, conscientes o inconscientes, lo que explica el por qu se ha abordado su estudio desde diferentes perspectivas incluyendo la neurologa, psicologa, sociologa, filosofa, las diversas disciplinas antropolgicas, y las ciencias de la informacin - tales como la inteligencia artificial, la gestin del conocimiento y el aprendizaje automtico. La cognicin est ntimamente relacionada con conceptos abstractos tales como mente, percepcin, razonamiento, inteligencia, aprendizaje y muchos otros que describen numerosas capacidades de los seres superiores- aunque estas caractersticas tambin las compartiran algunas entidades no biolgicas segn lo propone la inteligencia artificial. En las primeras etapas de desarrollo del concepto se crea que la cognicin era una caracterstica solamente humana pero con el desarrollo de la etologa y la inteligencia artificial se discute la validez de tal argumento [citarequerida]. En psicologa e inteligencia artificial (IA) el concepto se refiere a las funciones, procesos y estados mentales de agentes inteligentes, con un enfoque particular en procesos tales como comprensin, inferencia, toma de decisiones, planificacin y aprendizaje. La investigacin en el campo aborda capacidades de los agentes/sistemas tales como la abstraccin, generalizacin, concrecin/especializacin y meta-razonamiento en las cuales se involucran conceptos subjetivos tales como las creencias, conocimiento, estados mentales y preferencias. El concepto de cognicin es frecuentemente utilizado para significar el acto de conocer, o conocimiento, y puede ser definido, en un sentido cultural o social, como el desarrollo emergente de conocimiento dentro de un grupo que culmina con la sinergia del pensamiento y la accin.

El proceso mental
Fritjof Capra presenta en el apndice de su libro, La trama de la vida, los seis criterios fundamentales de Gregory Bateson para el proceso mental y los compara con la teora propuesta por Humberto Maturana: 1. 2. 3. 4. 5. Una mente es un agregado de partes o componentes interactuantes. La interaccin entre las partes de la mente es desencadenada por la diferencia. El proceso mental requiere energa colateral. El proceso mental requiere cadenas circulares de determinacin. En el proceso mental, los efectos de la diferencia deben ser vistos como transformaciones de sucesos que los han precedido. 6. La descripcin y clasificacin de esos procesos de transformacin revelan una jerarqua de prototipos lgicos inmanentes en los fenmenos. Segn John Lachman y E.C. Butterfield, el llamado procesamiento de informacin... ...considera que se realizan pocas operaciones simblicas, relativamente bsicas, tales como codificar, comparar, localizar y/o almacenar. Por consiguiente, en ltimo caso puede dar cuenta de la inteligencia humana y la capacidad para crear conocimiento, innovaciones y tal vez expectativas respecto al futuro.
[citarequerida]

Considera que es en los dos ltimos criterios donde se presenta la diferencia entre los puntos de vista de Bateson y Maturana sobre la cognicin.[1]

Cognicin

15

Procesamiento de la informacin
Segn John Lachman y E.C. Butterfield, el llamado procesamiento de informacin... ...considera que se realizan pocas operaciones simblicas, relativamente bsicas, tales como codificar, comparar, localizar y/o almacenar. Por consiguiente, en ltimo caso puede dar cuenta de la inteligencia humana y la capacidad para crear conocimiento, innovaciones y tal vez expectativas respecto al futuro.
[citarequerida]

Este procesamiento consiste en cmo el sujeto internaliza la informacin recibida por el ambiente. A su vez, en la internalizacin de nuevos conocimientos, se activan de manera conjunta las funciones cognitivas para que la internalizacin de nuevos conocimientos se realice de una manera satisfactoria.

Campos relacionados
Antropologa social Didctica Educacin Pedagoga Etnologa Terapia Ocupacional Etnohistoria Lingstica Ontologa Fonoaudiologa Neuropsicologa Neurociencia Psicologa Ciencia cognitiva

Referencias
[1] Fritjof Capra. La trama de la vida. Barcelona: Anagrama. 1998

Enlaces externos
Procesos Cognitivos. (http://homepage.mac.com/blinkcentral/Education6.html) BlinkCentral Cognicin. (http://www.elsevier.com/wps/find/journaldescription.cws_home/505626/ description#description) Publicacin internacional con artculos tericos y experimentales sobre el estudio de la mente. Procesamiento Cognitivo. (http://www.springerlink.com/(ka4jxlvaasem5jmccwi3ta3e)/app/home/journal. asp?referrer=parent&backto=linkingpublicationresults,1:110966,1) Quarterly, Springer Informacin sobre cognicin musical. (http://www.hum.uva.nl/mmm/) Universidad de Amsterdan Emotional and Decision Making Lab, Carnegie Mellon, EDM Lab (http://computing.hss.cmu.edu/lernerlab/ home.php) Cognition (http://www.calt.insead.edu/Encyclopedia/?cognition) Enciclopedia CALT Los Lmites de la Cognicin Humana. (http://news.softpedia.com/news/ The-Limits-of-Human-Cognition-37388.shtml) Artculo en ingls, que describe la evolucin de las capacidades cognitivas de los mamferos.

Informacin

16

Informacin
En sentido general, la informacin es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Para Gilles Deleuze, la informacin es un sistema de control, en tanto que es la propagacin de consignas que deberamos de creer o hacer que creemos. En tal sentido la informacin es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas trasmitidas. Los datos sensoriales una vez percibidos y procesados constituyen una informacin que cambia el estado de conocimiento, eso permite a los individuos o sistemas que poseen dicho estado nuevo de conocimiento tomar decisiones pertinentes acordes a dicho conocimiento. Desde el punto de vista de la ciencia de la computacin, la informacin es un conocimiento explcito extrado por seres vivos o sistemas expertos como resultado de interaccin con el entorno o percepciones sensibles del mismo entorno. En principio la informacin, a diferencia de los datos o las percepciones sensibles, tienen estructura til que modificar las sucesivas interacciones del ente que posee dicha informacin con su entorno.

Informacin en la sociedad
En las sociedades humanas y en parte en algunas sociedades animales, la informacin tiene un impacto en las relaciones entre diferentes individuos. En una sociedad la conducta de cada individuo frente a algunos otros individuos se puede ver alterada en funcin de qu informacin disponible posee el primer individuo. Por esa razn el estudio social de la informacin se refiere a los aspectos relacionados con la variacin de la conducta en posesin de diferentes informaciones.

Principales caractersticas de la informacin


En general la informacin tiene una estructura interna y puede ser calificada segn varias caractersticas: Significado (semntica): Qu quiere decir? Del significado extrado de una informacin, cada individuo evala las consecuencias posibles y adeca sus actitudes y acciones de manera acorde a las consecuencias previsibles que se deducen del significado de la informacin. Esto se refiere a qu reglas debe seguir el individuo o el sistema experto para modificar sus expectativas futuras sobre cada posible alternativa. Importancia (relativa al receptor): Trata sobre alguna cuestin importante? La importancia del la informacin para un receptor, se referir a en qu grado cambia la actitud o la conducta de los individuos. En las modernas sociedades, los individuos obtienen de los medios de comunicacin masiva gran cantidad de informacin, una gran parte de la misma es poco importante para ellos, porque altera de manera muy poco significativa la conducta de los individuos. Esto se refiere a en qu grado cuantitativo deben alterarse las expectativas futuras. A veces se sabe que un hecho hace menos probables algunas cosas y ms otras, la importancia tiene que ver con cuanto menos probables sern unas alternativas respecto a las otras. Vigencia (en la dimensin espacio-tiempo): Es actual o desfasada? En la prctica la vigencia de una informacin es difcil de evaluar, ya que en general acceder a una informacin no permite conocer de inmediato si dicha informacin tiene o no vigencia. Esto tiene que ver con la sincronizacin en el tiempo de los indicios que permiten revaluar las expectativas con las expectativas en un momento dado. Validez (relativa al emisor): El emisor es fiable o puede proporcionar informacin no vlida (falsa)? Esto tiene que ver si los indicios deben ser considerados en la revaluacin de expectativas o deben ser ignorados por no ser indicios fiables. Valor (activo intangible voltil): Cmo de til resulta para el destinatario?

Informacin

17

Historia de la informacin
La historia de la informacin est asociada a su produccin, tratamiento y transmisin. Una cronologa de esa historia detallada puede ser: Siglos V a X - Alta Edad Media. El almacenamiento, acceso y uso limitado de la informacin se realiza en las bibliotecas de los monasterios de forma amanuense o manual. Siglo XII. Los Incas (Per) usan un sistema de cuerdas para el registro de informacin numrica llamada Quipu, usado principalmente para contar ganado. Siglo XV - Edad Moderna. Con el nacimiento de la imprenta (Gutenberg), los libros comienzan a fabricarse en serie. Surgen los primeros peridicos. Siglo XX. 1926. Se inicia la primera retransmisin de televisin que afectar al manejo y tratamiento de la informacin con gran impacto en los mtodos de comunicacin social durante todo el siglo. Siglo XX. 1940. Jeremy Campbell, defini el trmino informacin desde una perspectiva cientfica, en el contexto de la era de la comunicacin electrnica. Siglo XX. 1943. El austro-hngaro Nikola Tesla inventa la radio, aunque inicialmente dicho invento se atribuye a Guglielmo Marconi y la patente no se reconoce a su autor hasta los aos 1960 . Siglo XX. 1947.En diciembre John Bardeen, Walter Houser Brattain y William Bradford Shockley, inventan el transistor. Sern galardonados por ello con el Premio Nobel de Fsica en 1956.Acaban de sentar sin saberlo la primera de las dos bases para una nueva revolucin tecnolgica y econmica, actuando como detonante de un aumento exponencial de la capacidad de integracin microeletrnica, de la popularizacin y la potencia de clculo del ordenador.[1] Siglo XX. 1948. Claude E. Shannon, elabora las bases matemticas de la Teora de la Informacin.[2] Acaba de dar la segunda base de la revolucin de las tecnologas de la informacin y la comunicacin: la aplicacin del lgebra de Boole ser el fundamento matemtico para industrializar el procesamiento de la informacin. Nace as la Ciencia de la Computacin o Ingeniera informtica. La nueva revolucin econmica est servida. La humanidad entra en la Era Digital usando el transistor y la numeracin binaria para simbolizar, transmitir y compartir la informacin.[3][4] Siglo XX. 1948. Norbert Wiener, elabora la idea de ciberntica en su famosa obra * Ciberntica o el control y comunicacin en animales y mquinas (Cybernetics or Control and Communication in the Animal and the Machine) (1948) donde se encarg de "mantener el orden" en cualquier sistema natural o artificial de informacin. Siglo XX. 1951-1953. James Watson y Francis Crick descubren los principios de los cdigos de ADN, que forman un sistema de informacin a partir de la doble espiral de ADN y la forma en que trabajan los genes. Siglo XX. 1969. En el contexto de la guerra fra, el movimiento contracultural de los aos 60', nace la embrionaria Internet cuando se establece la primera conexin de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos, con el objetivo inicial de facilitar una red de comunicaciones militares a prueba de bomba. Su expansin y popularizacin, y la democratizacin del conocimiento que facilita, transformar radicalmente las relaciones econmicas, sociales y culturales en un mundo ms y ms interdependiente.[5] Actualmente, ya en el siglo XXI, en un corto perodo de tiempo, el mundo desarrollado se ha propuesto lograr la globalizacin del acceso a los enormes volmenes de informacin existentes en medios cada vez ms complejos, con capacidades exponencialmente crecientes de almacenamiento[6] y en soportes cada vez ms reducidos. A pesar de ello todava existen muchas fuentes de informacin en formato no digital o inaccesibles digitalmente por diversas causas.[7] En este marco la proliferacin de redes de transmisin de datos e informacin, de bases de datos con acceso en lnea, ubicadas en cualquier lugar, localizables mediante Internet, permiten el hallazgo de otras redes y centros de informacin de diferentes tipos en cualquier momento desde cualquier lugar. Es el resultado de datos gestionados a travs de aplicaciones informticas donde los datos son procesados y transformados en informacin que posteriormente es manejada como signo integrador y caracterstico de progreso

Informacin econmico del siglo XXI.[8]

18

Usos de la informacin
Se considera que la generacin y/o obtencin de informacin persigue estos objetivos: Aumentar/mejorar el conocimiento del usuario, o dicho de otra manera reducir la incertidumbre existente sobre un conjunto de alternativas lgicamente posibles. Proporcionar a quien toma decisiones la materia prima fundamental para el desarrollo de soluciones y la eleccin. Proporcionar una serie de reglas de evaluacin y reglas de decisin para fines de control. En relacin con el tercer punto, la informacin como va para llegar al conocimiento, debe ser elaborada para hacerla utilizable o disponible (este proceso emprico se llama Documentacin y tiene mtodos y herramientas propios), pero tambin es imposible que la informacin por s sola dote al individuo de ms conocimiento, es l quien valora lo significativo de la informacin, la organiza y la convierte en conocimiento. El dato, por as llamarlo, es en s un "prefijo" de la informacin, es decir, es un elemento previo necesario para poder obtener la informacin.

Informacin periodstica
Una noticia es el relato o redaccin de un texto informativo que se quiere dar a conocer con sus propias reglas de construccin (enunciacin) que se refiere a un hecho novedoso o atpico -o la relacin entre hechos novedosos y/o atpicos-, ocurrido dentro de una comunidad o determinado mbito especfico, que hace que merezca su divulgacin. La noticia es un hecho periodstico, equivalente a lo que implica para la historia un acontecimiento. Dentro del mbito de algunos medios de comunicacin, es un gnero periodstico en el que la noticia es un "recorte de la realidad" sobre un hecho de actualidad que merece ser informado por algn tipo de criterio de relevancia social. El contenido de una noticia debe responder a la mayora de las preguntas que se conocen como las "6W-H", de la escuela de periodismo norteamericana: A quin le sucedi? Qu sucedi? Cundo sucedi? Dnde sucedi? Por qu sucedi? Cmo sucedi?

La informacin es un fenmeno que proporciona significado o sentido a las cosas. En sentido general, la informacin es un conjunto organizado de datos procesados, que constituyen un mensaje sobre un determinado ente o fenmeno. Los datos se perciben, se integran y generan la informacin necesaria para producir el conocimiento que es el que finalmente permite tomar decisiones para realizar las acciones cotidianas que aseguran la existencia. La sabidura consiste en determinar correctamente cundo, cmo, dnde y con qu objetivo emplear el conocimiento adquirido. La informacin tambin indica mediante cdigos y conjuntos de datos, los modelos del pensamiento humano. La informacin por lo tanto, procesa y genera el conocimiento humano. De esta manera, si por ejemplo organizamos datos sobre un pas, tales como: nmero de habitantes, densidad de poblacin, nombre del presidente, etc. y escribimos por ejemplo, el captulo de un libro, podemos decir que ese captulo constituye informacin sobre ese pas.

Informacin

19

Informacin y el Estado
El control y la manipulacin es uno de los medios ms poderosos de los gobiernos para promover el acatamiento de sus polticas. As, los estados totalitarios y autoritarios buscan el monopolio de la informacin para promover el acatamiento de las polticas. La informacin tiene por objetivo dar a conocer los hechos de manera efectiva e imparcial, mientras que la propaganda busca ganar adeptos para lograr un objetivo, sin importarle la veracidad de los hechos. As la propaganda compite con el derecho como instrumento de poder. [9]

Teora de la informacin
El enfoque de la teora de la informacin analiza la estructura matemtica y estadstica de los mensajes, con independencia de su significado u otros aspectos semnticos. Los aspectos en los que se interesa la teora de la informacin son las capacidad de transmisin de los canales, la compresin de datos o la deteccin y correccin de errores.

Caracterizacin matemtica
Una forma de caracterizar nuestro estado de conocimiento del mundo, es a travs de las probabilidades. Si sabemos que en el futuro pueden suceder n cosas diferentes , cada una con probabilidad ese conjunto de probabilidades constituyen nuestro conocimiento del mundo, una informacin debera reducir nuestra incertidumbre, variando las probabilidades a . Si el segundo estado tiene menos incertidumbre es porque algunas cosas se han hecho ms probables frente a otras alternativas que se han hecho menos probables. Una forma de "medir la informacin" asociada a un mensaje o hecho observado es calcular como algunas probabilidades han crecido y otras han decrecido. Una medida conveniente de calcular la "concentracin" de la certeza en algunas alternativas es la entropa estadstica:[10]

Un ejemplo lingstico ilustra bien este caso. Supongamos que nos proponen adivinar la segunda letra de una palabra del espaol. y nos dicen que en la segunda posicin podra aparecer cualquier letra del alfabeto. Por tanto la incertidumbre inicial se obtiene calculando la probabilidad de ocurrencia de cada letra y calculando:

Sin embargo, si nos dan como pista que "la primera letra es una Z", entonces en segunda posicin slo puede aparecer A, O, U (aunque existen un puado de casos excepcionales de E e I) y por tanto con esa informacin se reduce mucha la incertidumbre:

La informacin cuantificada de la pista "la primera letra es una Z" resulta ser:

Las undiades de inforamcin resultan ser bits puesto que se han empleado logaritmos de base 2. Si la pista hubiera sido "la primera letra es una M", la segunda letra slo podra ser A, E, I, O, U que es un conjunto ms amplio y en este caso y en este caso, la pista lleva menos informacin porque reduce menos la incertidumbre, el resultado en este caso es repitiendo los pasos anteriores de unos 2,50 bits.

Informacin

20

Recuperacin de la informacin
La cantidad de informacin y el conocimiento desarrollado, aparentemente es enorme y tiene una metodologa de recuperacin, que eventualmente es infinita o total en un nmero muy amplio de soportes y sitios y el modelo sistmico de recuperacin debe maximizar la bsqueda para asegurar su captura lo ms completa posible dentro del entorno de este sistema complejo. En el caso de bsquedas en Internet y usando dos o ms descriptores, los resultados numricos que dan los motores de bsqueda, que contengan los dos o ms trminos juntos o muy prximos, ya es una medida de la cantidad de informacin conseguida y que es en expresin matemtica el ln o logaritmo natural de la suma de las interacciones validadas. Valores de 2 o 3 sern ptimos.

Informacin y fsica
En fsica existe una ntima conexin entre entropa e informacin: En fsica estadstica un macroestado o situacin macroscpica, puede corresponder desde el punto de vista microscpico a varios microestados, es decir, varios microestados diferentes pueden ser percibidos en trminos macroscpicos generales como la misma situacin o macroestado general. Algunos macroestados slo pueden corresponder a un nmero relativamente pequeo de microestados, otros macroestados por el contrario pueden corresponder a un nmero ms elevado de microestados. La entropa es una magnitud fsica que mide la cantidad de microestados correspondiente a un macroestado. De alguna manera los macroestados con mayor entropa pueden corresponder a ms microestados y por tanto conocido el macroestado existe una mayor incertidumbre sobre el microestado real del sistema. Por tanto la entropa mide la falta de conocimiento del microestado, de ah que la informacin necesaria para conocer el microestado de un sistema conocido su macroestado coincida con la entropa. Cuando se produce una disminucin de la entropa se puede decir que ha aumentado nuestro conocimiento del microestado del sistema, o existe menos incertidumbre sobre dicho microestado. En la teora de la relatividad se presupone que ninguna seal que sea informativa puede viajar ms rpidamente que la luz, si sucediera lo contrario podra violarse el principio de causalidad.

Referencias
[1] Manso Coronado, Francisco Javier (2003). Diccionario enciclopdico de estrategia empresarial (http:/ / books. google. es/ books?id=HF5MQbmedA8C& printsec=frontcover& source=gbs_navlinks_s#v=onepage& q=& f=false). ISBN 8479785659. . "Nos hallamos inmersos en una revolucin... la tecnologa de silicio se invento en 1945,el transistor en 1947,el primer ordenador en 1948...".pag257 [2] Shannon, Claude E (1948). A Mathematical Theory of Communication (http:/ / www. essrl. wustl. edu/ ~jao/ itrg/ shannon. pdf). Bell System Technical Journal 27 (b-1598). ISSN , 379-423. . [3] Leer, Anne (2001). La visin de los lderes en la era digital (2001). Mxico : Prentice-Hall. ISBN 968-444-440-0. [4] Tubella i Casadevall, Immna (2005). 2.2. La economa de las TIC y la revolucin digital. (http:/ / books. google. es/ books?id=hZDiwVbJVN8C& pg=PA42& dq=la+ revolucion+ digital+ ECONOMIA& lr=& cd=1#v=onepage& q=& f=false). En UOC. Sociedad del conocimiento. . [5] An Internet Pioneer Ponders the Next Revolution (http:/ / partners. nytimes. com/ library/ tech/ 99/ 12/ biztech/ articles/ 122099outlook-bobb. html?Partner=Snap). An Internet Pioneer Ponders the Next Revolution. Consultado el 25 de noviembrede 2005. [6] The size of the World Wide Web (http:/ / www. worldwidewebsize. com/ ). Consultado el 21 de Febrerode 2010. [7] El saber perdido en la era digital.Lucha por preservar la memoria colectiva en el ciberespacio (http:/ / www. elpais. com/ articulo/ internet/ saber/ perdido/ era/ digital/ elpeputec/ 20070322elpepunet_1/ Tes). EL PAS (22/2007). Consultado el 21 de Febrerode 2010. [8] Federacin de Cajas de Ahorros Vasco-Navarras-. La revolucin digital: Nueva economa e Integracin Social (http:/ / www. fcavn. es/ Castellano/ Publicaciones/ Ekonomi_Gerizan/ 9. asp). EKONOMI GERIZAN VOLUMEN (9). . [9] (en espaol) Repblica del Per: Evaluacin de la gobernabilidad democrtica.. Madrid : Universidad Complutense, Instituto Complutense de Estudios Internacionales, [2007]. 2007. p.66. ISBN 8496702057 9788496702059. [10] Welsh, 1998

Informacin

21

Bibliografa
Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN 0-19-853287-3.

Enlaces externos
Wikimedia Commons alberga contenido multimedia sobre InformacinCommons. Wikiquote alberga frases clebres de o sobre Informacin. Wikiquote Informacin en La Enciclopedia de Ciencias y Tecnologas en Argentina (http://cyt-ar.com.ar/cyt-ar/index. php/Informacin). informacin y referencia (http://iyr-13.sisinfo.info/index.php?title=Pgina_principal). Recuperacin de informacin.: (http:/ / www. sistemasrecuperaciondeinformacion. blogspot. com. :) Information Retrieval. Bogot : ULS, 2010.

Teora de la informacin
La teora de la informacin tambin conocida como teora matemtica de la comunicacin (Mathematical Theory of Communication) o teora matemtica de la informacin, es una propuesta terica presentada por Claude E. Shannon y Warren Weaver a finales de la dcada de los 40. Esta teora est relacionada con las leyes matemticas que rigen la transmisin y el procesamiento de la informacin y se ocupa de la medicin de la informacin y de la representacin de la misma as como tambin de la capacidad de los sistemas de comunicacin para transmitir y procesar informacin.[1] La Teora de la Informacin es una rama de la teora matemtica y de las ciencias de la computacin que estudia la informacin y todo lo relacionado con ella: canales, compresin de datos, criptografa y temas relacionados.

Historia
La teora de la informacin surgi a finales de la Segunda Guerra Mundial en los aos cuarenta. Fue iniciada por Claude E. Shannon a travs de un artculo publicado en el Bell System Technical Journal en 1948, titulado Una teora matemtica de la comunicacin (texto completo en ingls [2]). En esta poca se buscaba utilizar de manera ms eficiente los canales de comunicacin, enviando una cantidad de informacin por un determinado canal y midiendo su capacidad; se buscaba la transmisin ptima de los mensajes. Esta teora es el resultado de trabajos comenzados en la dcada 1910 por Andrei A. Markovi, a quien le sigui Ralp V. L. Hartley en 1927, quien fue el precursor del lenguaje binario. A su vez, Alan Turing en 1936, realiz el esquema de una mquina capaz de tratar informacin con emisin de smbolos, y finalmente Shannon, matemtico, ingeniero electrnico y criptgrafo americano conocido como "el padre de la teora de la informacin junto a Warren Weaver contribuyeron en la culminacin y el asentamiento de la Teora Matemtica de la Comunicacin de 1949 que hoy es mundialmente conocida por todos como la Teora de la Informacin-. Weaver consigui darle un alcance superior al planteamiento inicial, creando un modelo simple y lineal: Fuente/codificador/mensaje canal/descodificador/destino. La necesidad de una base terica para la tecnologa de la comunicacin surgi del aumento de la complejidad y de la masificacin de las vas de comunicacin, tales como el telfono, las redes de teletipo y los sistemas de comunicacin por radio. La teora de la informacin tambin abarca todas las restantes formas de transmisin y almacenamiento de informacin, incluyendo la televisin y los impulsos elctricos que se transmiten en las computadoras y en la grabacin ptica de datos e imgenes. La idea es garantizar que el transporte masivo de datos no sea en modo alguno una merma de la calidad, incluso si los datos se comprimen de alguna manera. Idealmente, los datos se pueden restaurar a su forma original al llegar a su destino. En algunos casos, sin embargo, el objetivo es permitir que los datos de alguna forma se convierten para la transmisin en masas, se reciban en el punto de destino, y convertidos fcilmente a su formato original, sin perder ninguna de la informacin transmitida.[3]

Teora de la informacin

22

Desarrollo de la teora
El modelo propuesto por Shannon es un sistema general de la comunicacin que parte de una fuente de informacin desde la cual, a travs de un transmisor, se emite una seal, la cual viaja por un canal, pero a lo largo de su viaje puede ser interferida por algn ruido. La seal sale del canal, llega a un receptor que decodifica la informacin convirtindola posteriormente en mensaje que pasa a un destinatario. Con el modelo de la teora de la informacin se trata de llegar a determinar la forma ms econmica, rpida y segura de codificar un mensaje, sin que la presencia de algn ruido complique su transmisin. Para esto, el destinatario debe comprender la seal correctamente, el problema es que aunque exista un mismo cdigo de por medio, esto no significa que el destinatario va captar el significado que el emisor le quiso dar al mensaje. La codificacin puede referirse tanto a la transformacin de voz o imagen en seales elctricas o electromagnticas, como al cifrado de mensajes para asegurar su privacidad. Un concepto fundamental en la teora de la informacin es que la cantidad de informacin contenida en un mensaje es un valor matemtico bien definido y medible. El trmino cantidad no se refiere a la cuanta de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de mensajes posibles, sea recibido. En lo que se refiere a la cantidad de informacin, el valor ms alto se le asigna al mensaje que menos probabilidades tiene de ser recibido. Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de informacin es 0. [4]

Finalidad
Con el modelo de la teora de la informacin se trata de llegar a determinar la forma ms econmica, rpida y segura de codificar un mensaje, sin que la presencia de algn ruido complique su transmisin. Para esto, el destinatario debe comprender la seal correctamente, el problema es que aunque exista un mismo cdigo de por medio, esto no significa que el destinatario va captar el significado que el emisor le quiso dar al mensaje. Otro aspecto importante dentro de esta teora es la resistencia a la distorsin que provoca el ruido, la facilidad de codificacin y descodificacin, as como la velocidad de transmisin. Es por esto que se dice que el mensaje tiene muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un mismo cdigo en comn. La teora de la informacin tiene ciertas limitantes como lo es la acepcin del concepto del cdigo, el significado que se quiere transmitir no cuenta tanto como el nmero de alternativas necesario para definir el hecho sin ambigedad. Si la seleccin del mensaje se plantea nicamente entre dos alternativas diferentes, la teora de Shannon postula arbitrariamente que el valor de la informacin es uno. Esta unidad de informacin recibe el nombre de bit. Para que el valor de la informacin sea un bit, todas las alternativas deben ser igual de probables y estar disponibles. Es importante saber si la fuente de informacin tiene el mismo grado de libertad para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta eleccin. La cantidad de informacin crece cuando todas las alternativas son igual de probables o cuando mayor sea el nmero de alternativas. Pero en la prctica comunicativa real no todas las alternativas son igualmente probables, lo cual contribuye un tipo de proceso estocstico denominado Markoff. el subtipo de Markoff dice que la cadena de smbolos est configurada de manera que cualquier secuencia de esa cadena es representativa de toda la cadena completa.

Teora aplicada a la tecnologa


La teora de la Informacin se encuentra an hoy en da en relacin con una de las tecnologas en boga, el Internet. Desde el punto de vista social, Internet representa unos significativos beneficios potenciales ya que ofrece oportunidades sin precedentes para dar poder a los individuos y conectarlos con fuentes cada vez ms ricas de informacin digital. Internet fue creado a partir de un proyecto del departamento de defensa de los Estados Unidos llamado DARPANET (Defense Advanced Research Project Network) iniciado en 1969 y cuyo propsito principal era la investigacin y desarrollo de protocolos de comunicacin para redes de rea amplia para ligar redes de transmisin de paquetes de diferentes tipos capaces de resistir las condiciones de operacin ms difciles, y continuar funcionando an con la prdida de una parte de la red (por ejemplo en caso de guerra). Estas investigaciones dieron como resultado el protocolo TCP/IP, (Transmission Control Protocol/Internet Protocol) un sistema de

Teora de la informacin comunicaciones muy slido y robusto bajo el cual se integran todas las redes que conforman lo que se conoce actualmente como Internet. El enorme crecimiento de Internet se debe en parte a que es una red basada en fondos gubernamentales de cada pas que forma parte de Internet, lo que proporciona un servicio prcticamente gratuito. A principios de 1994 comenz a darse un crecimiento explosivo de las compaas con propsitos comerciales en Internet, dando as origen a una nueva etapa en el desarrollo de la red. Descrito a grandes rasgos, TCP/IP mete en paquetes la informacin que queremos enviar y la saca de los paquetes para utilizarla cuando la recibimos. A estos paquetes los podemos comparar con sobres de correo; TCP/IP guarda la informacin, cierra el sobre y en la parte exterior pone la direccin a la cual va dirigida y la direccin de quien la enva. Mediante este sistema, los paquetes viajan a travs de la red hasta que llegan al destino deseado; una vez ah, la computadora de destino quita el sobre y procesa la informacin; en caso de ser necesario enva una respuesta a la computadora de origen usando el mismo procedimiento. Cada mquina que est conectada a Internet tiene una direccin nica, esto hace que la informacin que enviamos no equivoque el destino. Existen dos formas de dar direcciones, con letras o con nmeros. Realmente, las computadoras utilizan las direcciones numricas para mandar paquetes de informacin, pero las direcciones con letras fueron implementadas para facilitar su manejo a los seres humanos. Una direccin con letras consta de dos a cuatro partes. Una direccin numrica est compuesta por cuatro partes. Cada una de estas partes est dividida por puntos. Ejemplo: sedet.com.mx 107.248.185.1 microsoft.com198.105.232.6

23

Una de las aplicaciones de la teora de la informacin son los archivos ZIP, documentos que se comprimen para su transmisin a travs de correo electrnico o como parte de los procedimientos de almacenamiento de datos. La compresin de los datos hace posible completar la transmisin en menos tiempo. En el extremo receptor, un software se utiliza para la liberacin o descompresin del archivo, restaurando los documentos contenidos en el archivo ZIP a su formato original. La teora de la informacin tambin entra en uso con otros tipos de archivos; por ejemplo, los archivos de audio y video que se reproducen en un reproductor de MP3 se comprimen para una fcil descarga y almacenamiento en el dispositivo. Cuando se accede a los archivos se amplan para que estn inmediatamente disponibles para su uso.[5]

Elementos de la Teora
Fuente
Una fuente es todo aquello que emite mensajes. Por ejemplo, una fuente puede ser una computadora y mensajes sus archivos, una fuente puede ser un dispositivo de transmisin de datos y mensajes los datos enviados, etc. Una fuente es en s misma un conjunto finito de mensajes: todos los posibles mensajes que puede emitir dicha fuente. En compresin de datos tomaremos como fuente al archivo a comprimir y como mensajes a los caracteres que conforman dicho archivo.

Esquema de la comunicacin ideado por Claude E. Shannon.

Tipo de Fuentes

Teora de la informacin Por la naturaleza generativa de sus mensajes una fuente puede ser aleatoria o determinstica. Por la relacin entre los mensajes emitidos una fuente puede ser estructurada o no estructurada (o catica). Existen varios tipos de fuentes. Para la teora de la informacin interesan las fuentes aleatorias y estructuradas. Una fuente es aleatoria cuando no es posible predecir cual es el prximo mensaje a emitir por la misma. Una fuente es estructurada cuando posee un cierto nivel de redundancia, una fuente no estructurada o de informacin pura es aquella en que todos los mensajes son absolutamente aleatorios sin relacin alguna ni sentido aparente, este tipo de fuente emite mensajes que no se pueden comprimir, un mensaje para poder ser comprimido debe poseer un cierto nivel de redundancia, la informacin pura no puede ser comprimida sin que haya una perdida de conocimiento sobre el mensaje.[6]

24

Mensaje
Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosa que tenga una representacin binaria puede considerarse un mensaje. El concepto de mensaje se aplica tambin a alfabetos de ms de dos smbolos, pero debido a que tratamos con informacin digital nos referiremos casi siempre a mensajes binarios.

Cdigo
Un cdigo es un conjunto de unos y ceros que se usan para representar a un cierto mensaje de acuerdo a reglas o convenciones preestablecidas. Por ejemplo al mensaje 0010 lo podemos representar con el cdigo 1101 usando para codificar la funcin (NOT). La forma en la cual codificamos es arbitraria. Un mensaje puede, en algunos casos representarse con un cdigo de menor longitud que el mensaje original. Supongamos que a cualquier mensaje S lo codificamos usando un cierto algoritmo de forma tal que cada S es codificado en L(S) bits, definimos entonces a la informacin contenida en el mensaje S como la cantidad mnima de bits necesarios para codificar un mensaje.

Informacin
La informacin contenida en un mensaje es proporcional a la cantidad de bits que se requieren como mnimo para representar al mensaje. El concepto de informacin puede entenderse ms fcilmente si consideramos un ejemplo. Supongamos que estamos leyendo un mensaje y hemos ledo "string of ch", la probabilidad de que el mensaje contine con "aracters" es muy alta por lo tanto cuando realmente leemos "aracters" del archivo la cantidad de informacin que recibimos es muy baja pues estabamos en condiciones de predecir que era lo que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de aparicin aporta menos informacin que la ocurrencia de mensajes menos probables. Si luego de "string of ch" leemos "imichurri" la cantidad de informacin que recibimos es mucho mayor.

Entropa e informacin
La informacin es tratada como magnitud fsica, caracterizando la informacin de una secuencia de smbolos utilizando la Entropa. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos mtodos de envo de informacin o la cantidad de informacin til que se pueda enviar a travs de un canal. La informacin necesaria para especificar un sistema fsico tiene que ver con su entropa. En concreto en ciertas reas de la fsica extraer informacin del estado actual de un sistema requiere reducir su entropa, de tal manera que la entropa del sistema y la cantidad de informacin extraible estn relacionadas por:

Teora de la informacin

25

Entropa de una fuente


De acuerdo a la teora de la informacin, el nivel de informacin de una fuente se puede medir segn la entropa de la misma. Los estudios sobre la entropa son de suma importancia en la teora de la informacin y se deben principalmente a C. E. Shannon, existen a su vez un gran nmero de propiedades respecto de la entropa de variables aleatorias debidas a A. Kolmogorov. Dada una fuente "F" que emite mensajes, resulta frecuente observar que los mensajes emitidos no resulten equiprobables sino que tienen una cierta probabilidad de ocurrencia dependiendo del mensaje. Para codificar los mensajes de una fuente intentaremos pues utilizar menor cantidad de bits para los mensajes ms probables y mayor cantidad de bits para los mensajes menos probables de forma tal que el promedio de bits utilizados para codificar los mensajes sea menor a la cantidad de bits promedio de los mensajes originales. Esta es la base de la compresin de datos. A este tipo de fuente se la denomina fuente de orden-0 pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes anteriores, a las fuentes de orden superior se las puede representar mediante una fuente de orden-0 utilizando tcnicas de modelizacin apropiadas. Definimos a la probabilidad de ocurrencia de un mensaje en una fuente como la cantidad de apariciones de dicho mensaje dividido el total de mensajes. Supongamos que Pi es la probabilidad de ocurrencia del mensaje-i de una fuente, y supongamos que Li es la longitud del cdigo utilizado para representar a dicho mensaje, la longitud promedio de todos los mensajes codificados de la fuente se puede obtener como:

Promedio ponderado de las longitudes de los cdigos de acuerdo a sus probabilidades de ocurrencia, al nmero "H" se lo denomina "Entropa de la fuente" y tiene gran importancia. La entropa de la fuente determina el nivel de compresin que podemos obtener como mximo para un conjunto de datos, si consideramos como fuente a un archivo y obtenemos las probabilidades de ocurrencia de cada carcter en el archivo podremos calcular la longitud promedio del archivo comprimido, se demuestra que no es posible comprimir estadsticamente un mensaje/archivo ms all de su entropa. Lo cual implica que considerando nicamente la frecuencia de aparicin de cada carcter la entropa de la fuente nos da el lmite terico de compresin, mediante otras tcnicas no-estadsticas puede, tal vez, superarse este lmite. El objetivo de la compresin de datos es encontrar los Li que minimizan a "H", adems los Li se deben determinar en funcin de los Pi, pues la longitud de los cdigos debe depender de la probabilidad de ocurrencia de los mismos (los ms ocurrentes queremos codificarlos en menos bits). Se plantea pues:

A partir de aqu y tras intrincados procedimientos matemticos que fueron demostrados por Shannon oportunamente se llega a que H es mnimo cuando f(Pi) = log2 (1/Pi). Entonces:

La longitud mnima con la cual puede codificarse un mensaje puede calcularse como Li=log2(1/Pi) = -log2(Pi). Esto da una idea de la longitud a emplear en los cdigos a usar para los caracteres de un archivo en funcin de su probabilidad de ocurrencia. Reemplazando Li podemos escribir a H como:

De aqu se deduce que la entropa de la fuente depende nicamente de la probabilidad de ocurrencia de cada mensaje de la misma, por ello la importancia de los compresores estadsticos (aquellos que se basan en la probabilidad de ocurrencia de cada carcter). Shannon demostr, oportunamente que no es posible comprimir una fuente estadsticamente ms all del nivel indicado por su entropa. [7][8]

Teora de la informacin

26

Otros tpicos de la teora


Fuentes de informacin Teorema de muestreo de Nyquist-Shannon Entropa Neguentropa Informacin mutua

Canales Capacidad Compresin de datos Cdigos fuente Cdigos no-singulares Cdigos unvocamente decodificables Extensin de cdigo Cdigos prefijo (o cdigos instantneos) Control de errores FEC ARQ Parada y espera Rechazo mltiple Rechazo selectivo Tcnicas hbridas Concatenacin de cdigos Tipo 1 Tipo 2 Deteccin de errores Bits de redundancia Mtodos de control de errores Paridad Cdigos autochequeo y autocorrectores Cdigos de bloque Distancia Hamming Paridad horizontal y vertical Cdigos lineales Cdigos cclicos CRC16 CRC32

Teora de la informacin

27

Referencias
[1] [2] [3] [4] [5] Teora Matemtica de la Comunicacin (http:/ / tunastc3. tripod. com/ ts10/ ) http:/ / www. essrl. wustl. edu/ ~jao/ itrg/ shannon. pdf Teora Matemtica de la Comunicacin (http:/ / tunastc3. tripod. com/ ts10/ ) Teora de la Informacin (http:/ / www. entradagratis. com/ Enciclopedia-de-Comunicacion/ 3068/ Teoria-de-la-Informacion-pag. 1. htm) Teora Matemtico-informacional (http:/ / www. monografias. com/ trabajos59/ teoria-matematico-informacional/ teoria-matematico-informacional. shtml) [6] Teora de la Informacin | Textos Cientficos (http:/ / www. textoscientificos. com/ informacion/ teoria) [7] Teora de la Informacin (http:/ / www. textoscientificos. com/ informacion/ teoria) [8] Teora Matemtica de la Informacin (http:/ / cienciasempresariales. info/ teoria-matematica-de-la-informacion/ )

Entropa (informacin)
En el mbito de la teora de la informacin la entropa, tambin llamada entropa de la informacin y entropa de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de informacin. La Entropa tambin se puede considerar como la cantidad de informacin promedio que contienen los smbolos usados. Los smbolos con menor probabilidad son los que aportan mayor informacin; por ejemplo, si se considera como sistema de smbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca informacin. Mientras que palabras menos frecuentes como "corren", "nio", "perro" aportan ms informacin. Si de un texto dado borramos un "que", seguramente no afectar a la comprensin y se sobreentender, no siendo as si borramos la palabra "nio" del mismo texto original. Cuando todos los smbolos son igualmente probables (distribucin de probabilidad plana), todos aportan informacin relevante y la entropa es mxima.
Escultura dedicada a la Entropa en los jardines centrales de la Universidad El concepto de entropa es usado en de Monterrey, Mxico termodinmica, mecnica estadstica y teora de la informacin. En todos los casos la entropa se concibe como una "medida del desorden" o la "peculiaridad de ciertas combinaciones". La Entropa puede ser considerada como una medida de la incertidumbre y de la informacin necesarias para, en cualquier proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el concepto de informacin y el de entropa estn ampliamente relacionados entre s, aunque se necesitaron aos de desarrollo de la mecnica estadstica y de la teora de la informacin antes de que esto fuera percibido.

Entropa (informacin)

28

Relacin con la entropa termodinmica


La entropa de la teora de la informacin est estrechamente relacionada con la entropa termodinmica. En la termodinmica se estudia un sistema de partculas cuyos estados X (usualmente posicin y velocidad) tienen una cierta distribucin de probabilidad, pudiendo ocupar varios microestados posibles (equivalentes a los smbolos en la teora de la informacin). La entropa termodinmica es igual a la entropa de la teora de la informacin de esa distribucin (medida usando el logaritmo neperiano) multiplicada por la constante de Boltzmann k, la cual permite pasar de nats (unidad semejante al bit) a J/K. Cuando todos los microestados son igualmente probables, la entropa termodinmica toma la forma k log(N). En un sistema aislado, la interaccin entre las partculas tiende a aumentar su dispersin, afectando sus posiciones y sus velocidades, lo que causa que la entropa de la distribucin aumente con el tiempo hasta llegar a un cierto mximo (cuando el mismo sistema es lo ms homogneo y desorganizado posible); lo que es denominado segunda ley de la termodinmica. La diferencia entre la cantidad de entropa que tiene un sistema y el mximo que puede llegar a tener se denomina neguentropa, y representa la cantidad de organizacin interna que tiene el sistema. A partir de esta ltima se puede definir la energa libre de Gibbs, la que indica la energa que puede liberar el sistema al aumentar la entropa hasta su mximo y puede ser transformada en trabajo (energa mecnica til) usando una mquina ideal de Carnot. Cuando un sistema recibe un flujo de calor, las velocidades de las partculas aumentan, lo que dispersa la distribucin y hace aumentar la entropa. As, el flujo de calor produce un flujo de entropa en la misma direccin.

Concepto intuitivo
El concepto bsico de entropa en teora de la informacin tiene mucho que ver con la incertidumbre que existe en cualquier experimento o seal aleatoria. Es tambin la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de informacin que lleva una seal. Como ejemplo, consideremos algn texto escrito en espaol, codificado como una cadena de letras, espacios y signos de puntuacin (nuestra seal ser una cadena de caracteres). Ya que, estadsticamente, algunos caracteres no son muy comunes (por ejemplo, 'w'), mientras otros s lo son (como la 'a'), la cadena de caracteres no ser tan "aleatoria" como podra llegar a ser. Obviamente, no podemos predecir con exactitud cul ser el siguiente carcter en la cadena, y eso la hara aparentemente aleatoria. Pero es la entropa la encargada de medir precisamente esa aleatoriedad, y fue presentada por Shannon en su artculo de 1948, A Mathematical Theory of Communication [1] ("Una teora matemtica de la comunicacin", en ingls). Shannon ofrece una definicin de entropa que satisface las siguientes afirmaciones:

Entropa de la informacin en un ensayo de Bernoulli X (experimento aleatorio en que X puede tomar los valores 0 o 1). La entropa depende de la probabilidad P(X=1) de que X tome el valor 1. Cuando P(X=1)=0.5, todos los resultados posibles son igualmente probables, por lo que el resultado es poco predecible y la entropa es mxima.

La medida de informacin debe ser proporcional (continua). Es decir, el cambio pequeo en una de las probabilidades de aparicin de uno de los elementos de la seal debe cambiar poco la entropa. Si todos los elementos de la seal son equiprobables a la hora de aparecer, entonces la entropa ser mxima. Ejemplos de mxima entropa: Suponiendo que estamos a la espera de un texto, por ejemplo un cable con un mensaje. En dicho cable solo se reciben las letras en minscula de la a hasta la z, entonces si el mensaje que nos llega es "qalmnbphijcdgketrsfuvxyzwo" el cual posee una longitud de 27 caracteres, se puede decir que este mensaje llega a nosotros con la mxima entropa (o desorden posible); ya que es poco probable que se pueda pronosticar la entrada de caracteres, pues estos no se repiten ni estn ordenados en una forma predecible.

Entropa (informacin)

29

Definicin formal
Supongamos que un fenmeno (variable aleatoria) tiene un grado de indeterminacin inicial igual a k (k estados posibles) y supongamos todos los estados equiprobables, entonces la probabilidad p de que se d una de esas combinaciones ser 1/k. Podemos representar entonces la expresin como:

Si ahora cada uno de los k estados tiene una probabilidad ponderada de la cantidad de informacin:
[2]

, entonces la entropa vendr dada por la suma

Por lo tanto, la entropa de un mensaje X, denotado por H(X), es el valor medio ponderado de la cantidad de informacin de los diversos estados del mensaje:

que representa una medida de la incertidumbre media acerca de una variable aleatoria y por tanto de la cantidad de informacin. Nota: Obsrvese que se usa el logaritmo en base 2 porque se considera que la informacin se va a representar mediante cdigo binario (se quiere representar con bits). Si para representar la informacin de la variable aleatoria se usaran valores en una base entonces sera conveniente considerar logaritmos en base .

Ejemplos
La entropa de un mensaje M de longitud 1 carcter que utiliza el conjunto de caracteres ASCII, suponiendo una equiprobabilidad en los 256 caracteres ASCII, ser:

Supongamos que el nmero de estados de un mensaje es igual a 3, M1, M2 y M3 donde la probabilidad de M1 es 50%, la de M2 25% y la de M3 25%. Por tanto la entropa de la informacin es:

Informacin Mtua
La entropa puede verse como caso especial de la informacin mutua. La informacin mutua de dos variables aleatorias, denotado por I(X;Y), es una cantidad que mide la dependencia mutua de las dos variables, es decir, mide la reduccin de la incertidumbre (entropa) de una variable aleatoria, X, debido al conocimiento del valor de otra variable aleatoria Y.[3] De la definicin podemos concluir que si X e Y son iguales, entonces I(X;X)=H(X).

Propiedades
La entropa tiene las siguiente propiedades: 1. La entropa es no negativa. Esto es evidente ya que al ser 2. una probabilidad entonces . Por tanto

podemos decir que y por tanto Es decir, la entropa H est acotada superiormente (cuando es mxima) y no supone prdida de

informacin. 3. Dado un proceso con posibles resultados {A1,..,An} con probabilidades relativas p1,...,pn, la funcin es mxima en el caso de que . El resultado es intuitivo ya que tenemos la mayor incertidumbre del mensaje, cuando los valores posibles de la variable son equiprobables 4. Dado un proceso con posibles resultados {A1,..,An} con probabilidades relativas p1,...,pn, la funcin es nula en el caso de que para todo i, excepto para una clase, tal que: . De

Entropa (informacin) forma intuitiva podemos pensar que cuando uno o ms estados tienen una probabilidad alta, disminuye significativamente la entropa porque, como es lgico, existe una menor incertidumbre respecto al mensaje que se recibir.

30

Codificador ptimo
Un codificador ptimo es aquel que utiliza el mnimo nmero de bits para codificar un mensaje. Un codificador ptimo usar cdigos cortos para codificar mensajes frecuentes y dejar los cdigos de mayor longitud para aquellos mensajes que sean menos frecuentes. De esta forma se optimiza el rendimiento del canal o zona de almacenamiento y el sistema es eficiente en trminos del nmero de bits para representar el mensaje. Por ejemplo, el cdigo Morse se aprovecha de este principio para optimizar el nmero de caracteres a transmitir a partir del estudio de las letras ms frecuentes del alfabeto ingls. El cdigo Morse no es un codificador ptimo pero s asigna a las letras ms frecuente cdigo ms cortos. Otro ejemplo sera el algoritmo de Huffman de codificacin que sirve para compactar informacin.[4] Este mtodo se basa en el codificador ptimo. Para ello lo primero que hace es recorrer toda la informacin para encontrar la frecuencia de los caracteres y luego a partir de esta informacin busca el codificador ptimo por medio de rboles binarios. Algunas tcnicas de compresin como LZW o deflacin no usan probabilidades de los smbolos aislados, sino que usan las probabilidades conjuntas de pequeas secuencias de smbolos para codificar el mensaje, por lo que pueden lograr un nivel de compresin mayor. Podemos construir un codificador ptimo basndonos en la entropa de una variable aleatoria de informacin X. En efecto, la entropa nos da el nmero medio de bits (si usamos logaritmos de base 2) necesarios para codificar el mensaje a travs de un codificador ptimo y por tanto nos determina el lmite mximo al que se puede comprimir un mensaje usando un enfoque smbolo a smbolo sin ninguna prdida de informacin (demostrado analticamente por Shannon), el lmite de compresin (en bits) es igual a la entropa multiplicada por el largo del mensaje. Reescribiendo la ecuacin de clculo de la entropa podemos decir:

por tanto la informacin (usando base 2 y por tanto en bits) que aporta un determinado valor (smbolo), variable aleatoria discreta se define como:

, de una

Esta expresin representa el nmero necesario de bits para codificar el mensaje x en el codificador ptimo y por tanto la entropa tambin se puede considerar como una medida de la informacin promedio contenida en cada smbolo del mensaje.

Ejemplo
Supongamos que el nmero de estados de un mensaje es igual a 3 M1, M2 y M3 donde la probabilidad de M1 es 50%, la de M2 25% y la de M3 25%. Para M1 tenemos que Para M2 tenemos que Para M3 tenemos que Por tanto en el codificador ptimo para transmitir M1 har falta un bit y para M2 y M3 ser necesario contar con dos bits. Por ejemplo podramos codificar M1 con "0", M2 con "10" y M2 con "11". Usando este convenio para codificar el mensaje M1M2M1M1M3M1M2M3 usaramos "010001101011" y por tanto 12 bits. El valor de la entropa sera: Por tanto el codificador ptimo necesita de media 1,5 bits para codificar cualquier valor de X.

Entropa (informacin)

31

Entropa condicional
Vase tambin artculo dedicado: Entropa condicional Supongamos que en vez de tener una nica variable aleatoria X, existe otra variable Y dependientes entre s, es decir el conocimiento de una (por ejemplo Y) entrega informacin sobre la otra (por ejemplo X). Desde el punto de vista de la entropa de la informacin podemos decir que la informacin de Y disminuir la incertidumbre de X. Por tanto podemos decir que la entropa de X ser condicional a Y. y por tanto:

Como por el teorema de Bayes tenemos que p(x,y)=p(y)p(x|y) donde p(x|y) es la probabilidad de que se d un estado de X conocida Y, podemos decir:

Aplicacin en criptoanlisis
El concepto de entropa condicional es muy interesante en el campo del criptoanlisis. Proporciona una herramienta para evaluar el grado de seguridad de los sistemas. Por ejemplo para un sistema de cifrado hay dos entropas condicionales interesantes:[5] Supongamos Un mensaje M1 es sometido a un proceso de cifrado usando la clave K1 obteniendo E(K1,M1)=C1. representan la probabilidad condicional de la clave K dado el criptograma recibido C. A veces tambin se denota por representan la probabilidad condicional del mensaje M dado el criptograma recibido C. A veces

tambin se denota por Entonces: Podemos calcular la entropa del conocimiento de la clave una vez conocido el texto cifrado, y por tanto medir la equivocacin del mensaje (en ingls message equivocation), , tambin denotada por , mediante la frmula:

La primera igualdad es por la definicin de la entropa condicional y la segunda por aplicacin del teorema de Bayes. Observar que si significa que se podr romper el cifrado pues ya no hay incertidumbre. Esta

anulacin nos introduce en el concepto de distancia de unicidad. Podemos calcular la entropa del conocimiento del mensaje una vez conocido el texto cifrado, y por tanto medir la equivocacin de la clave (en ingls key equivocation), , tambin denotada por , mediante la frmula:

La primera igualdad es por la definicin de la entropa condicional y la segunda por aplicacin del teorema de Bayes.

Entropa (informacin)

32

Ejemplo
Supongamos X una variable X con cuatro estados: Existe Si Si Si adems otra variable Y con tres estados; todos equiprobables y por tanto con probabilidades . y

. Se conocen adems las siguientes dependecias: entonces los posibles valores de x son entonces los posibles valores de x son entonces los posibles valores de x son

Aplicando las frmulas tenemos:

En este caso el conocimiento de la dependencia de X respecto Y reduce la entropa de X de 2 a 1,5.

Entropa de un proceso estocstico


[6]

Un proceso estocstico

es una secuencia indexada de variables aleatorias. En general, puede haber

dependencias entre las variables aleatorias. Para estudiar la probabilidad de cierto conjunto de valores se suele adoptar el siguiente convenio: Sea un proceso estocstico de n variables aleatorias, y sea el conjunto de la posibles

combinaciones de valores de entropa del n-grama y denotado por

. Se define la entropa del proceso estocstico, tambin llamada , como:

Ratio de entropa
Vase tambin artculo dedicado: Ratio de entropa
[7]

La ratio de entropa de una secuencia de n variables aleatorias (proceso estocstico) caracteriza la tasa de crecimiento de la entropa de la secuencia con el crecimiento de n. La ratio de entropa de un proceso estocstico viene definida por la ecuacin:

siempre que dicho lmite exista.

Entropa (informacin)

33

Referencias
[1] http:/ / cm. bell-labs. com/ cm/ ms/ what/ shannonday/ paper. html [2] Cuevas Agustn, Gonzalo, "Teora de la informacin, codificacin y lenguajes", Ed. SEPA (Sociedad para Estudios Pedaggicos Argentinos), Serie Informtica 1986 [3] Dan C. Marinescu, Gabriela M. Marinescu, "Classical and Quantum Information",Academic Press 2012 [4] Huffman, D., "A method for the Construction of Minimun-Redundancy Codes", Proc. IRE, Vol 40 1952 [5] "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et all. American Mathematical Societyn 1983 [6] Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons. Second Edition 2006 [7] Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons. Second Edition 2006

Bibliografa
Jorge Rami Aguirre, Aplicaciones criptogrficas. Libro gua de la asignatura de Seguridad Informtica. Escuela Universitaria de Informtica. Universidad Politcnica de Madrid. Enero 1998.

Enlaces externos
Una Teora Matemtica de la Comunicacin (http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html) (en ingls) Calculadora de la entropa de Shannon (http://www.shannonentropy.netmark.pl) (en ingls)

Informacin mutua
En teora de la probabilidad, y en teora de la informacin, la informacin mutua o transinformacin de dos variables aleatorias es una cantidad que mide la dependencia mutua de las dos variables, es decir, mide la reduccin de la incertidumbre (entropa) de una variable aleatoria, X, debido al conocimiento del valor de otra variable aleatoria Y.[1]

Definicin
Consideremos dos variables aleatorias X e Y con posibles valores xi, i=1,2,...,n, yj, j=1,2,...,m respectivamente. Podemos usar la notacin y Podemos definir la informacin mutua entre y como:[2]

La unidad del concepto est determinado por la base del logaritmo usado. Se suelen usar logaritmos base dos, por tanto, la unidad de medida ms comn es el bit. De la propia definicin podemos concluir que ya que:

Informacin mutua

34

Informacin mutua media


La informacin mutua media mide la informacin mutua media que se produce entre los distintos valores de dos variables aleatorias. Para ello proporcionamos un peso a los valores de en base a la probabilidad de ocurrencia. Por tanto, la informacin mutua media de dos variables aleatorias discretas X e Y puede definirse como:[3]

En el caso continuo, reemplazamos la suma con una integral doble definida:

Como en el caso de

, la unidad del concepto est determinado por la base del logaritmo usado Se suele

usar el logaritmo con base dos y por tanto la unidad ms comn es el bit.

Concepto intuitivo
Intuitivamente, la informacin mutua media mide la informacin que X e Y comparten: mide en cunto el conocimiento de una variable reduce nuestra incertidumbre sobre la otra. Por ejemplo, si X e Y son independientes, entonces conocer X no da informacin sobre Y y viceversa, por lo que su informacin mutua es cero. En el otro extremo, si X e Y son idnticas entonces toda informacin proporcionada por X es compartida por Y: saber X determina el valor de Y y viceversa. Por ello, la informacin mutua media es igual a la informacin contenida en Y (o X) por s sola, tambin llamada la entropa de Y (o X: claramente si X e Y son idnticas tienen idntica entropa). La informacin mutua media cuantifica la dependencia entre la distribucin conjunta de X e Y y la que tendran si X e Y fuesen independientes. La informacin mutua media es una medida de dependencia en el siguiente sentido: I(X; Y) = 0 si y slo si X e Y son variables aleatorias independientes. Esto es fcil de ver en una direccin: si X e Y son independientes, entonces p(x,y) = p(x) p(y), y por tanto:

Informacin mutua

35

Propiedades
La informacin mutua media cumple las siguientes propiedades:[4][5] 1. min(H(X),H(Y))I(X;Y)0 cumplindose la igualdad a 0 cuando X e Y son independientes. 2. I(X;Y) = I(Y;X).

Relacin con entropa


El valor de la informacin mutua previa se puede obtener a partir del concepto de entropa. usando las definiciones matemticas de las [entropa (informacin)entropas H(X), H(X,Y) y H(X|Y)

obtenemos
Relacin entre entropas e informacin mutua media [6]

De lo anterior y de la propiedad de las entropas

obtenemos

Por tanto,

lo que indica que la entropa es un tipo especial de informacin mutua media

Referencias
[1] [2] [3] [4] [5] [6] Dan C. Marinescu, Gabriela M. Marinescu, "Classical and Quantum Information",Academic Press 2012 Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008 Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008 Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008 R.M.Gray,"Entropy and Information Theory", Springer 2011.Second Edition Ranajan M. Bose,"Information Theory, Coding And Cryptography". Tata McGraw Hill 2008

Variable aleatoria

36

Variable aleatoria
En probabilidad y estadstica, una variable aleatoria o variable estocstica es una variable estadstica cuyos valores se obtienen de mediciones en algn tipo de experimento aleatorio. Formalmente, una variable aleatoria es una funcin, que asigna eventos (p.e., los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc.) a nmeros reales (p.e., su suma). Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento an no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de medicin incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribucin de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valores lgicos, funciones... El trmino elemento aleatorio se utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el de proceso estocstico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo).

Definicin de variable aleatoria


Concepto intuitivo
Informalmente una variable aleatoria puede concebirse como un valor numrico que est afectado por el azar. Dada una variable aleatoria no es posible conocer con certeza el valor que tomar esta al ser medida o determinada, aunque s se conoce que existe una distribucin de probabilidad asociada al conjunto de valores posibles. Por ejemplo, en una epidemia de clera, se sabe que una persona cualquiera puede enfermar o no (suceso), pero no se sabe cual de los dos sucesos va a ocurrir. Solamente se puede decir que existe una probabilidad de que la persona enferme. Para trabajar de manera slida con variables aleatorias en general es necesario considerar un gran nmero de experimentos aleatorios, para su tratamiento estadstico, cuantificar los resultados de modo que se asigne un nmero real a cada uno de los resultados posibles del experimento. De este modo se establece una relacin funcional entre elementos del espacio muestral asociado al experimento y nmeros reales.

Definicin formal
Una variable aleatoria (v.a.) X es una funcin real definida en el espacio muestral, , asociado a un experimento aleatorio.[1][2]

La definicin formal anterior involucra conceptos matemticos sofisticados procedentes de la teora de la medida, concretamente la nocin de espacio de probabilidad.[3][4] Dado un espacio de probabilidad y un espacio medible , una aplicacin es una

variable aleatoria si es una aplicacin -medible. En la mayora de los casos se toma como espacio medible de llegada el formado por los nmeros reales junto con la -lgebra de Borel (el generado por la topologa usual de ), quedando pues la definicin de esta manera: Dado un espacio de probabilidad donde es la -lgebra boreliana. una variable aleatoria real es cualquier funcin -medible

Variable aleatoria

37

Rango de una variable aleatoria


Se llama rango de una variable aleatoria X y lo denotaremos RX, a la imagen o rango de la funcin , es decir, al conjunto de los valores reales que sta puede tomar, segn la aplicacin X. Dicho de otro modo, el rango de una v.a. es el recorrido de la funcin por la que sta queda definida:

Ejemplo
Supongamos que se lanzan dos monedas al aire. El espacio muestral, esto es, el conjunto de resultados elementales posibles asociado al experimento, es , donde (c representa "sale cara" y x, "sale cruz"). Podemos asignar entonces a cada suceso elemental del experimento el nmero de caras obtenidas. De este modo se definira la variable aleatoria X como la funcin

dada por

El recorrido o rango de esta funcin, RX, es el conjunto

Caracterizacin de variables aleatorias


Tipos de variables aleatorias
Para comprender de una manera ms amplia y rigurosa los tipos de variables, es necesario conocer la definicin de conjunto discreto. Un conjunto es discreto si est formado por un nmero finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, y as sucesivamente.[5] Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se recogen en la funcin de cuanta (vanse las distribuciones de variable discreta). Variable aleatoria continua: una v.a. es continua si su recorrido no es un conjunto numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de nmeros reales. Por ejemplo, la variable que asigna la estatura a una persona extrada de una determinada poblacin es una variable continua ya que, tericamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.[6] (vanse las distribuciones de variable continua) Variable aleatoria independiente: Supongamos que "X" e "Y" son variables aleatorias discretas. Si los eventos X = x / Y = y son variables aleatorias independientes. En tal caso: P(X = x, Y = y) = P( X = x) P ( Y = y). De manera equivalente: f(x,y) = f1(x).f2(y). Inversamente, si para todo "x" e "y" la funcin de probabilidad conjunta f(x,y) no puede expresarse slo como el producto de una funcin de "x" por una funcin de "y" (denominadas funciones de probabilidad marginal de "X" e "Y" ), entonces "X" e "Y" son dependientes.

Variable aleatoria Si "X" e "Y" son variables aleatorias continuas, decimos que son variables aleatorias independientes si los eventos "X x", e "Y y" y son eventos independientes para todo "x" e "y" . De manera equivalente: F(x,y) = F1(x).F2(y), donde F1(x) y F2(y) son las funciones de distribucin (marginal) de "X" e "Y" respectivamente. Inversamente, "X" e "Y" son variables aleatorias dependientes si para todo "x" e "y" su funcin de distribucin conjunta F(x,y) no puede expresarse como el producto de las funciones de distribucin marginales de "X" e "Y". Para variables aleatorias independientes continuas, tambin es cierto que la funcin de densidad conjunta f(x,y)es el producto de las funciones densidad de probabilidad marginales de "X", f1(x), y de "Y", f2(y).

38

Distribucin de probabilidad de una v.a.


La distribucin de probabilidad de una v.a. X, tambin llamada funcin de distribucin de X es la funcin , que asigna a cada evento definido sobre una probabilidad dada por la siguiente expresin:

y de manera que se cumplan las siguientes tres condiciones: 1. y

2. Es continua por la derecha. 3. Es montona no decreciente. La distribucin de probabilidad de una v.a. describe tericamente la forma en que varan los resultados de un experimento aleatorio. Intuitivamente se tratara de una lista de los resultados posibles de un experimento con las probabilidades que se esperaran ver asociadas con cada resultado.

Funcin de densidad de una v.a. continua


La funcin de densidad de probabilidad (FDP) o, simplemente, funcin de densidad, representada comnmente como f(x), se utiliza con el propsito de conocer cmo se distribuyen las probabilidades de un suceso o evento, en relacin al resultado del suceso. La FDP es la derivada (ordinaria o en el sentido de las distribuciones) de la funcin de distribucin de probabilidad F(x), o de manera inversa, la funcin de distribucin es la integral de la funcin de densidad:

La funcin de densidad de una v.a. determina la concentracin de probabilidad alrededor de los valores de una variable aleatoria continua.

Funciones de variables aleatorias


Sea una variable aleatoria ser que sobre y una funcin medible de Borel , entonces ser tambin una variable aleatoria sobre probabilidad a es , dado que la composicin de funciones medibles tambin es medible a no . La funcin de

sea una funcin medible de Lebesgue. El mismo procedimiento que permite ir de un espacio de puede ser utilizado para obtener la distribucin de

probabilidad acumulada de

Si la funcin g es invertible, es decir g-1 existe, y es montona creciente, entonces la anterior relacin puede ser extendida para obtener

Variable aleatoria y, trabajando de nuevo bajo las mismas hiptesis de invertibilidad de g y asumiendo adems diferenciabilidad, podemos hallar la relacin entre las funciones de densidad de probabilidad al diferenciar ambos trminos respecto de y, obteniendo . Si g no es invertible pero cada y tiene un nmero finito de races, entonces la relacin previa con la funcin de densidad de probabilidad puede generalizarse como

39

donde xi = gi-1(y). Las frmulas de densidad no requieren que g sea creciente.

Ejemplo
Sea X una variable aleatoria real continua y sea Y = X2. Si y < 0, entonces P(X2 = y) = 0, por lo tanto

Si y = 0, entonces

por lo tanto

Parmetros de una v.a.


La funcin de densidad o la distribucin de probabilidad de una v.a. contiene exhaustivamente toda la informacin sobre la variable. Sin embargo resulta conveniente resumir sus caractersticas principales con unos cuantos valores numricos. Estos son, fundamentalmente la esperanza y la varianza.

Esperanza
La esperanza matemtica (o simplemente esperanza) o valor esperado de una v.a. es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Si todos los sucesos son de igual probabilidad la esperanza es la media aritmtica. Para una variable aleatoria discreta con valores posibles funcin de probabilidad la esperanza se calcula como: y sus probabilidades representadas por la

Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los valores y la funcin de densidad :

o La esperanza tambin se suele simbolizar con

Variable aleatoria El concepto de esperanza se asocia comnmente en los juegos de azar al de beneficio medio o beneficio esperado a largo plazo.

40

Varianza
La varianza es una medida de dispersin de una variable aleatoria como la esperanza de la transformacin o bien : respecto a su esperanza . Se define

Referencias
[1] http:/ / www. hrc. es/ bioest/ estadis_21. html Definicin de variable aleatoria. Esta definicin no es en absoluto rigurosa, ya que no define una variable aleatoria, sino cualquier funcin real. Es de remarcar que en la referencia no se dice en ningn momento que eso sea una definicin. Sin embargo, en la mayora de las aplicaciones prcticas, es suficiente. [2] La definicin rigurosa de variable aleatoria exige dotar a de estructura de espacio medible e imponer a X la condicin de ser funcin medible (vase la definicin formal de variable aleatoria, en este mismo artculo). [3] http:/ / planetmath. org/ encyclopedia/ DiscreteRandomVariable. html [4] http:/ / mathworld. wolfram. com/ RandomVariable. html [5] Vase conjunto finito para una definicin ms rigurosa [6] En experimentos reales la continuidad de una variable es rarsima, ya que la escasa precisin de los instrumentos de medida obliga a un conjunto discreto de valores posibles.

Bibliografa
Pea Snchez de Rivera, Daniel (2008). Fundamentos de Estadstica (1 edicin). Alianza Editorial. pp.688. ISBN 9788420683805. Ropero Moriones, Eva (2009). Manual de estadstica empresarial (1 edicin). Delta Publicaciones. pp.200. ISBN 9788492453214.

Enlaces externos
Wikimedia Commons alberga contenido multimedia sobre Variable aleatoriaCommons.

Incertidumbre (metrologa)

41

Incertidumbre (metrologa)
Incertidumbre, en metrologa, es una cota superior del valor de la correccin residual de la medida. Tambin puede expresarse como el valor de la semi-amplitud de un intervalo alrededor del valor resultante de la medida, que se entiende como el valor convencionalmente verdadero. El carcter convencional, y no real de tal valor, es consecuencia de que el intervalo se entiende como una estimacin adecuada de la zona de valores entre los que se encuentra el valor verdadero del mensurando, y que en trminos tanto tericos como prcticos es imposible de hallar con seguridad o absoluta certeza: tericamente porque se necesitara una sucesin infinita de correcciones, y en trminos prcticos por no ser til continuar con las correcciones una vez que la incertidumbre se ha reducido lo suficiente como para no afectar tcnicamente al objeto al que va a servir la medida. El Vocabulario Internacional de Metrologa (VIM) define la incertidumbre de medida como un parmetro, asociado al resultado de una medicin, que caracteriza la dispersin de los valores que razonablemente podran ser atribuidos al mensurando.[1] Existen muchas formas de expresar la incertidumbre de medida o conceptos derivados o asociados: incertidumbre tpica, incertidumbre expandida, incertidumbre de calibracin -calibracin-, incertidumbre mxima, incertidumbre de uso, etc.[2] la incertidumbre tambin puede ser como una duda de algo no entendido o no explicado la cual puede llevarse a cabo un grupo de preguntas y repuestas por resolver y darle una muy buena explicacin. Como concepto metrolgico, es del mismo mbito, pero diferente a los de tolerancia y precisin. Para la determinacin del valor de las magnitudes fundamentales (obtenido experimentalmente) en unidades del SI, se aplica la incertidumbre tpica, revisada peridicamente.[3]

Notas
[1] Incertidumbre, Tolerancia y Precisin (http:/ / www. cartesia. org/ article. php?sid=187) [2] Sensibilidad Incertidumbre (http:/ / www. mitecnologico. com/ im/ Main/ SensibilidadIncertidumbre) [3] Real Decreto 2032/2009, de 30 de diciembre, por el que se establecen las unidades legales de medida. (http:/ / www. boe. es/ boe/ dias/ 2010/ 01/ 21/ pdfs/ BOE-A-2010-927. pdf) BOE Nm. 18, jueves 21 de enero de 2010. Sec. I pgs. 5607-5618

Incertidumbre de calibracin

42

Incertidumbre de calibracin
El trmino incertidumbre de calibracin, normalmente se refiere a la fuente de incertidumbre procedente del Instrumento de medicin o bien del patrn de medida.[1]

Clculo de incertidumbre de calibracin de un instrumento


Para indicar el clculo de la incertidumbre de un instrumento de medida a travs de su calibracin, se deben considerar los siguientes supuestos previos: 1. La fuente principal de incertidumbre es la debida al instrumento de medida. Existen fuentes de incertidumbre aleatorias, tipo A. Se identifican dos tipos de fuentes: Tipo A: Aquellas que pueden estimarse a partir de clculos estadsticos obtenidos de las muestras recogidas en el proceso de medida. Tipo B: Aquellas que nicamente estn basadas en la experiencia o en otras informaciones. 2. La nica componente de incertidumbre tipo B es la debida al patrn, porque se considera que en las condiciones que se efectan las medidas en los laboratorios, las otras incertidumbres tipo B son de orden inferior a las de tipo A. En caso contrario se sumaran las varianzas. 3. El instrumento se emplea para medir en condicionas anlogas a las que se calibra. El proceso a seguir para la calibracin en un punto de la escala de medida consiste en: 1. 2. 3. 4. Medir nc veces el patrn de valor e incertidumbre conocidos. Calcular los estimadores estadsticos xc y sxc2. Corregir la desviacin sistemtica al nominal. Calcular el valor de la incertidumbre de dicha correccin.

Referencias
[1] Sevilla Hurtado, Lorenzo; Martn Snchez, Mara Jess (2008). Metrologa Dimensional. Servicio de Publicaciones e Intercambio Cientfico de la Universidad de Mlaga. ISBN 978-84-9747-081-0.

Tolerancia de fabricacin

43

Tolerancia de fabricacin
La tolerancia es una definicin propia de la metrologa industrial, que se aplica a la fabricacin de piezas en serie. Dada una magnitud significativa y cuantificable propia de un producto industrial (sea alguna de sus dimensiones, resistencia, peso o cualquier otra), el margen de tolerancia es el intervalo de valores en el que debe encontrarse dicha magnitud para que se acepte como vlida, lo que determina la aceptacin o el rechazo de los componentes fabricados, segn sus valores queden dentro o fuera de ese intervalo. El propsito de los intervalos de tolerancia es el de admitir un margen para las imperfecciones en la manufactura de componente, ya que se considera imposible la precisin absoluta desde el punto de vista tcnico, o bien no se recomienda por motivos de eficiencia: es una buena prctica de ingeniera el especificar el mayor valor posible de tolerancia mientras el componente en cuestin mantenga su funcionalidad, dado que cuanto menor sea el margen de tolerancia, la pieza ser ms difcil de producir y por lo tanto ms costosa. La tolerancia puede ser especificada por un rango explcito de valores permitidos,una mxima desviacin de un valor nominal, o por un factor o porcentaje de un valor nominal. Por ejemplo, si la longitud aceptable de un barra de acero est en el intervalo 1m0,01m, la tolerancia es de 0,01m (longitud absoluta) o 1% (porcentaje). La tolerancia puede ser simtrica, como en 400,1, o asimtrica como 40+0,2/-0,1. La tolerancia es diferente del factor de seguridad, pero un adecuado factor de seguridad tendr en cuenta tolerancias relevantes adems de otras posibles variaciones.

Tolerancia en un componente elctrico


Se podra necesitar una resistencia con un valor nominal de 100 (ohms), pero tambin tener una tolerancia de 1%. Esto significa que cualquier resistor que se encuentre dentro del rango de 99 a 101 es aceptable. Podra no ser razonable especificar una resistencia con un valor exacto de 100 en algunos casos, porque la resistencia exacta puede variar con la temperatura, corriente y otros factores ms all del control del diseador.

Tolerancia mecnica en un componente


La tolerancia es similar de una manera opuesta al ajuste en ingeniera mecnica, el cual es la holgura o la interferencia entre dos partes. Por ejemplo, para un eje con un dimetro nominal de 10 milmetros se ensamblara en un agujero se tendr que especificar el eje con un rango de tolerancia entre los 10,04 y 10,076 milmetros. Esto dara una holgura que se encontrara entre los 0,04 milmetros (eje mayor con agujero menor)y los 0,112 milmetros (eje menor con agujero mayor). En este caso el rango de tolerancia tanto para el eje y el hoyo se escoge que sea el mismo (0,036 milmetros), pero esto no es necesariamente el caso general. En mecnica, la tolerancia de fabricacin se puede definir como los valores mximo y mnimo que debe medir un eje u orificio para que en el momento de su encaje el eje y el orificio puedan ajustarse sin problemas. Si se supera el valor mximo o el mnimo, entonces resultar imposible encajar el eje dentro del orificio, por lo que se dir que el mecnico se ha pasado del valor de tolerancia.

Unidades y precisin
Las unidades de medida empleadas son determinantes a la prctica; por lo general, entre mayor cantidad de lugares decimales mayor la precisin, pero las unidades deben preferiblemente ser escogidas siguiendo los protocolos y estndares de industria. Por ejemplo, la medida angular puede ser indicada en forma decimal o en precisin de grado, minuto y segundo; mas estas dos formas no son las nicas formas de definir un ngulo. No se deben combinar unidades de medida en los valores delimitantes.

Tolerancia de fabricacin

44

Estilo
La nomenclatura de las tolerancias puede ser de un estilo conocido y preferido: Limites. Cuando las tolerancias denotan los lmites se escribe el mayor lmite subrayada, y el lmite menor en la parte inferior, o bajo la lnea. Bsico. Un rectngulo encierra la dimensin tericamente perfecta. Simtrica. La tolerancia es equitativa hacia la delimitacin mayor que la menor. Unilateral. Ambos valores delimitantes son hacia el lado mayor y viceversa.

Enlaces externos
Teora y Ejercicios solucionados de Dibujo Tcnico [1]

Referencias
[1] http:/ / www. tododibujo. com

Precisin
En ingeniera, ciencia, industria y estadstica, se denomina precisin a la capacidad de un instrumento de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones. Esta cualidad debe evaluarse a corto plazo. No debe confundirse con exactitud ni con reproducibilidad. La precisin refleja la proximidad de distintas medidas entre si, y es funcin exclusiva de los errores accidentales.[1] Es un parmetro relevante, especialmente en la investigacin de fenmenos fsicos, mbito en el cual los resultados se expresan como un nmero ms una indicacin del error mximo estimado para la magnitud. Es decir, se indica una zona dentro de la cual est comprendido el verdadero valor de la magnitud.[2] En informtica, se denomina asimismo precisin al nmero de bits usados para representar un valor. En general, en un sistema computacional la precisin est dada por el valor del dgito menos significativo de una palabra digital que representa un nmero con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a la diferencia entre dos valores sucesivos representables en el tipo de dato y escala del nmero.

Busques tambin
Precisin y exactitud Fabricacin y tolerancia Resolucin digital Error de medicin Desviacin estndar

Referencias
[1] Mongay Fernndez, Carlos (2011) (en espaol). Quimiometra (Universidad de Valencia. Servicio de Publicaciones edicin). 1. pp.27. ISBN 978-84-370-8644-6. [2] Cromer, Alan H.; Fernndez Ferrer, Julin (2010) (en espaol). Fsica en la ciencia y en la industria (3 edicin). Editorial Revert, S.A.. pp.15. ISBN 978-84-291-4156-6.

Exactitud

45

Exactitud
En ingeniera, ciencia, industria y estadstica, se denomina exactitud a la capacidad de un instrumento de acercarse al valor de la magnitud real. La exactitud depende de los errores sistemticos que intervienen en la medicin, denotando la proximidad de una medida al verdadero valor y, en consecuencia, la validez de la medida.[1][2] Suponiendo varias mediciones, no estamos midiendo el error de cada una, sino la distancia a la que se encuentra la medida real de la media de las mediciones (cun calibrado est el aparato de medicin). Esta cualidad tambin se encuentra en instrumentos generadores de magnitudes fsicas, siendo en este caso la capacidad del instrumento de acercarse a la magnitud fsica real. Exactitud es la cercana del valor experimental obtenido, con el valor exacto de dicha medida. El valor exacto de una magnitud fsica es un concepto utpico, ya que es imposible conocerlo sin incertidumbre alguna. Por ejemplo, si leemos la velocidad del velocmetro de un auto, esta tiene una precisin de 3 cifras significativas y una exactitud de 5 km/h.

Referencias
[1] Mongay Fernndez, Carlos (2011) (en espaol). Quimiometra (Universidad de Valencia. Servicio de Publicaciones edicin). 1. pp.27. ISBN 978-84-370-8644-6. [2] Cromer, Alan H.; Fernndez Ferrer, Julin (2010) (en espaol). Fsica en la ciencia y en la industria (3 edicin). Editorial Revert, S.A.. pp.16. ISBN 978-84-291-4156-6.

Reproducibilidad
La reproducibilidad es uno de los principios esenciales del mtodo cientfico, y se refiere a la capacidad que tenga una prueba o experimento de ser reproducido o replicado. El trmino est estrechamente relacionado con el concepto de testabilidad, y, dependiendo del campo cientfico en particular, puede requerir que la prueba o experimento sea falsable. Los resultados de un experimento llevado a cabo por un investigador o grupo de investigacin particular son evaluados generalmente por otros investigadores independientes reproduciendo el experimento original. Repiten el mismo experimento por s mismos, basndose en la descripcin del experimento original, y comprueban si su experimento arroja similares resultados a los comunicados por el grupo original. Se dice que los valores resultantes son conmensurables si se obtienen (en distintos procesos experimentales) de acuerdo con los mismos procedimientos experimentales descritos y reproducibles.

Reproducibilidad en metrologa
De forma particular, en ingeniera, ciencia, industria y estadstica, se denomina reproducibilidad a la capacidad de un instrumento de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones a lo largo de periodos dilatados de tiempo. Esta cualidad debe evaluarse a largo plazo. sta es la gran diferencia con precisin que debe, en cambio, ser evaluada a corto plazo.

Entropa

46

Entropa
En termodinmica, la entropa (simbolizada como S) es una magnitud fsica que, mediante clculo, permite determinar la parte de la energa que no puede utilizarse para producir trabajo. Es una funcin de estado de carcter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se d de forma natural. La entropa describe lo irreversible de los sistemas termodinmicos. La palabra entropa procede del griego () y significa evolucin o transformacin. Fue Rudolf Clausius quien le dio nombre y la desarroll durante la dcada de 1850;[1][2] y Ludwig Boltzmann, quien encontr la manera de expresar matemticamente este concepto, desde el punto de vista de la probabilidad.[3]

Evidencias
Cuando se plantea la pregunta: "Por qu ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?", se busca una respuesta que indique cul es el sentido de los Escultura dedicada a la Entropa en los jardines centrales de la Universidad sucesos. Por ejemplo, si se ponen en contacto dos de Monterrey, Mxico trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriar, y el trozo fro se calentar, finalizando en equilibrio trmico. El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo fro es muy improbable que se presente, a pesar de conservar la energa. El universo tiende a distribuir la energa uniformemente; es decir, a maximizar la entropa. La funcin termodinmica entropa es central para la segunda Ley de la Termodinmica. La entropa puede interpretarse como una medida de la distribucin aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropa. Un sistema en una condicin improbable tendr una tendencia natural a reorganizarse a una condicin ms probable (similar a una distribucin al azar), reorganizacin que dar como resultado un aumento de la entropa. La entropa alcanzar un mximo cuando el sistema se acerque al equilibrio, y entonces se alcanzar la configuracin de mayor probabilidad. Una magnitud es una propiedad si, y slo s, su cambio de valor entre dos estados es independiente del proceso. Esta proposicion puede ser fundamental a la hora de definir la variacion de entropa. La variacin de entropa, nos muestra la variacin del orden molecular ocurrido en una reaccin qumica. Si el incremento de entropa es positivo, los productos presentan un mayor desorden molecular (mayor entropa) que los reactivos. En cambio, cuando el incremento es negativo, los productos son ms ordenados. Hay una relacin entre la entropa y la espontaneidad de una reaccin qumica, que viene dada por la energa de Gibbs.

Entropa

47

Ecuaciones
Esta idea de desorden termodinmico fue plasmada mediante una funcin ideada por Rudolf Clausius a partir de un proceso cclico reversible. En todo proceso reversible la integral curvilnea de slo depende de los estados

inicial y final, con independencia del camino seguido (Q es la cantidad de calor absorbida en el proceso en cuestin y T es la temperatura absoluta). Por tanto, ha de existir una funcin del estado del sistema, S=f(P,V,T), denominada entropa, cuya variacin en un proceso reversible entre los estados 1 y 2 es:

Tngase en cuenta que, como el calor no es una funcin de estado, se usa Q, en lugar de dQ. La entropa fsica, en su forma clsica, est definida por la ecuacin siguiente:

o, ms simplemente, cuando no se produce variacin de temperatura (proceso isotrmico):

donde S es la entropa, absoluta en kelvin. Unidades: S=[KCal/K]

la cantidad de calor intercambiado entre el sistema y el entorno y T la temperatura

Los nmeros 1 y 2 se refieren a los estados iniciales y finales de un sistema termodinmico.

Significado
El significado de esta ecuacin es el siguiente:
Cuando un sistema termodinmico pasa, en un proceso reversible e isotrmico, del estado 1 al estado 2, el cambio en su entropa es igual a la cantidad de calor intercambiado entre el sistema y el medio dividido por su temperatura absoluta.

De acuerdo con la ecuacin, si el calor se transfiere al sistema, tambin lo har la entropa, en la misma direccin. Cuando la temperatura es ms alta, el flujo de calor que entra produce un aumento de entropa menor. Y viceversa. Las unidades de la entropa, en el Sistema Internacional, son el J/K (o Clausius), definido como la variacin de entropa que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin. Cuando el sistema evoluciona irreversiblemente, la ecuacin de Clausius se convierte en una inecuacin:

Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el sistema y la temperatura de las fuentes. No obstante, sumando un trmino positivo al segundo miembro, podemos transformar de nuevo la expresin en una ecuacin:

Al trmino

, siempre positivo, se le denomina produccin de entropa, y es nulo cuando el proceso es reversible

salvo irreversibilidades fruto de transferencias de calor con fuentes externas al sistema. En el caso de darse un proceso reversible y adiabtico, segn la ecuacin, dS=0, es decir, el valor de la entropa es constante y adems constituye un proceso isoentrpico.

Entropa

48

Cero absoluto
Slo se pueden calcular variaciones de entropa. Para calcular la entropa de un sistema, es necesario fijar la entropa del mismo en un estado determinado. La tercera ley de la termodinmica fija un estado estndar: para sistemas qumicamente puros, sin defectos estructurales en la red cristalina, de densidad finita, la entropa es nula en el cero absoluto (0 K). Esta magnitud permite definir la segunda ley de la termodinmica, de la cual se deduce que un proceso tiende a darse de forma espontnea en un cierto sentido solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro de forma espontnea, an cuando siga cumplindose la condicin de conservacin de la energa del sistema (la primera ley de la termodinmica).

Entropa y reversibilidad
La entropa global del sistema es la entropa del sistema considerado ms la entropa de los alrededores. Tambin se puede decir que la variacin de entropa del universo, para un proceso dado, es igual a su variacin en el sistema ms la de los alrededores:

Si se trata de un proceso reversible, S (universo) es cero pues el calor que el sistema absorbe o desprende es igual al trabajo realizado. Pero esto es una situacin ideal, ya que para que esto ocurra los procesos han de ser extraordinariamente lentos, y esta circunstancia no se da en la naturaleza. Por ejemplo, en la expansin isotrmica (proceso isotrmico) de un gas, considerando el proceso como reversible, todo el calor absorbido del medio se transforma en trabajo y Q= -W. Pero en la prctica real el trabajo es menor, ya que hay prdidas por rozamientos, por lo tanto, los procesos son irreversibles. Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor que el producido por el gas, lo que da como resultado una transferencia de calor hacia el entorno, con un aumento de la entropa global. Como los procesos reales son siempre irreversibles, siempre aumentar la entropa. As como "la energa no puede crearse ni destruirse", la entropa puede crearse pero no destruirse. Podemos decir entonces que "como el Universo es un sistema aislado, su entropa crece constantemente con el tiempo". Esto marca un sentido a la evolucin del mundo fsico, que llamamos principio de evolucin. Cuando la entropa sea mxima en el Universo, esto es, exista un equilibrio entre todas las temperaturas y presiones, llegar la muerte trmica del Universo (enunciado por Clausius). En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones de las molculas, la diferencia entre calor y trabajo desaparece, y por tanto, los parmetros termodinmicos como la entropa, temperatura, etc. no tienen significado. Esto conduce a la afirmacin de que el segundo principio de la termodinmica no es aplicable a tales microsistemas, porque realmente no son sistemas termodinmicos. Se cree que existe tambin un lmite superior de aplicacin del segundo principio, de tal modo que no se puede afirmar su cumplimiento en sistemas infinitos como el Universo, lo que pone en controversia la afirmacin de Clausius sobre la muerte trmica del Universo.

Historia de la entropa
El concepto de entropa desarrollado en respuesta a la observacin de que una cierta cantidad de energa liberada de funcionales reacciones de combustin siempre se pierde debido a la disipacin o la friccin y por lo tanto no se transforma en trabajo til. Los primeros motores de calor como Thomas Savery (1698), el Newcomen motor (1712) y el Cugnot de vapor de tres ruedas (1769) eran ineficientes, la conversin de menos de dos por ciento de la energa de entrada en produccin de trabajo til; una gran cantidad de energa til se disipa o se pierde en lo que pareca un estado de aleatoriedad inconmensurable. Durante los prximos dos siglos los fsicos investigaron este enigma de la energa perdida, el resultado fue el concepto de entropa.

Entropa En la dcada de 1850, Rudolf Clausius estableci el concepto de sistema termodinmico y postula la tesis de que en cualquier proceso irreversible una pequea cantidad de energa trmica Q se disipa gradualmente a travs de la frontera del sistema. Clausius sigui desarrollando sus ideas de la energa perdida, y acu el trmino "entropa". Durante el prximo medio siglo se llev a cabo un mayor desarrollo, y ms recientemente el concepto de entropa ha encontrado aplicacin en el campo anlogo de prdida de datos en los sistemas de transmisin de informacin.

49

Interpretacin estadstica de la entropa


En los aos 1890 - 1900 el fsico austraco Ludwig Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como mecnica estadstica, teora profundamente influenciada por el concepto de entropa. Una de las teoras termodinmicas estadsticas (la teora de Maxwell-Boltzmann) establece la siguiente relacin entre la entropa y la probabilidad termodinmica:

Donde S es la entropa, k la constante de Boltzmann y el nmero de microestados posibles para el sistema (ln es la funcin logaritmo neperiano). La ecuacin anterior es vlida porque se asume que todos los microestados tienen la misma probabilidad de aparecer. La clebre ecuacin se encuentra grabada sobre la lpida de la tumba de Ludwig Boltzmann en el Zentralfriedhof (el cementerio central) de Viena. Boltzmann se suicid en 1906, profundamente deprimido por la poca aceptacin de sus teoras en el mundo acadmico de la poca.[4] El significado de la ecuacin es el siguiente:
La cantidad de entropa de un sistema es proporcional al logaritmo natural del nmero de microestados posibles.

Uno de los aspectos ms importantes que describe esta ecuacin es la posibilidad de dar una definicin absoluta al concepto de la entropa. En la descripcin clsica de la termodinmica, carece de sentido hablar del valor de la entropa de un sistema, pues slo los cambios en la misma son relevantes. En cambio, la teora estadstica permite definir la entropa absoluta de un sistema. La entropa es una magnitud fsica bsica que dio lugar a diversas interpretaciones, y al parecer, a veces en conflicto. Ha sido, sucesivamente, asimilados a los diferentes conceptos tales como el desorden y la informacin. La entropa mide tanto la falta de informacin como la informacin. Estas dos concepciones son complementarias. La entropa tambin mide la libertad, y esto nos permite una interpretacin coherente de las frmulas de entropa y de los hechos experimentales. No obstante, asociar la entropa y el desorden implica definir el orden como la ausencia de libertad.[5] El desorden o la agitacin guardan relacin con la temperatura.

Entropa y desorden
Cuando la energa es degradada, dijo Boltzmann, se debe a que los tomos asumen un estado ms desordenado. Y la entropa es un parmetro del desorden: sa es la concepcin profunda que se desprende de la nueva interpretacin de Boltzmann. Por extrao que parezca, se puede crear una medida para el desorden; es la probabilidad de un estado particular, definido aqu como el nmero de formas en que se puede armar a partir de sus tomos Jacob Bronowski. El ascenso del hombre. Bogot, Fondo Educativo Interamericano, 1979, p. 347, captulo 10 "Un mundo dentro del mundo". Coloquialmente, suele considerarse que la entropa es el desorden de un sistema, es decir, su grado de homogeneidad. Un ejemplo domstico sera el de lanzar un vaso de cristal al suelo: tender a romperse y a esparcirse, mientras que jams conseguiremos que, lanzando trozos de cristal, se construya un vaso por s solo. Otro ejemplo domstico: tenemos dos envases de un litro de capacidad que contienen, respectivamente, pintura blanca y pintura negra; con una cucharita, tomamos pintura blanca, la vertemos en el recipiente de pintura negra y

Entropa mezclamos; luego tomamos con la misma cucharita pintura negra, la vertemos en el recipiente de pintura blanca y mezclamos; repetimos el proceso hasta que tenemos dos litros de pintura gris, que no podremos reconvertir en un litro de pintura blanca y otro de pintura negra; la entropia del conjunto ha ido en aumento hasta llegar a un mximo cuando los colores de ambos recipientes son sensiblemente iguales (sistema homogneo). No obstante, considerar que la entropa es el desorden de un sistema sin tener en cuenta la naturaleza del mismo es una falacia. Y es que hay sistemas en los que la entropa no es directamente proporcional al desorden, sino al orden.

50

Entropa como creadora de orden


A pesar de la identificacin entre la entropa y el desorden, hay muchas transiciones de fase en la que emerge una fase ordenada y al mismo tiempo, la entropa aumenta. En este artculo se muestra que esta paradoja se resuelve haciendo una interpretacin literal de la famosa ecuacin de Boltzmann S = k log W. Podemos verlo en la segregacin de una mezcla tipo coloide, por ejemplo cuando el agua y aceite tienden a separarse. Tambin en la cristalizacin de esferas duras: cuando agitamos naranjas en un cesto, stas se ordenan de forma espontnea. De estos casos se deduce el concepto de fuerza entrpica o interaccin, muy til en la ciencia de polmeros o ciencia coloidal.[6]

Relacin de la entropa con la teora de la informacin


Recientes estudios han podido establecer una relacin entre la entropa fsica y la entropa de la teora de la informacin gracias a la revisin de la fsica de los agujeros negros. Segn la nueva teora de Jacob D. Bekenstein el bit de informacin sera equivalente a una superficie de valor 1/4 del rea de Planck. De hecho, en presencia de agujeros negros la segunda ley de la termodinmica slo puede cumplirse si se introduce la entropa generalizada o suma de la entropa convencional (Sconv) ms un factor dependiente del rea total (A) de agujeros negros existente en el universo, del siguiente modo:

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de la gravitacin y constante de Planck racionalizada.

es la

Los agujeros negros almacenaran la entropa de los objetos que engulle en la superficie del horizonte de sucesos. Stephen Hawking ha tenido que ceder ante las evidencias de la nueva teora y ha propuesto un mecanismo nuevo para la conservacin de la entropa en los agujeros negros. Simplemente, al realizar un trabajo, se ocupa muy poca energa; la entropa se encarga de medir la energa que no es usada y queda reservada en un cuerpo.

La entropa como flecha del tiempo


Flecha del tiempo. Apartado por desarrollar.

Referencias
[1] Clausius, R. (1850). ber die bewegende Kraft der Wrme (http:/ / gallica. bnf. fr/ ark:/ 12148/ bpt6k15164w/ f384. table). Annalen der Physik und Chemie 79: pp.368-397, 500-524. . Consultado el 23 de septiembre de 2009. [2] Clausius, R. (1865). Ueber verschiedene fr die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wrmetheorie (http:/ / gallica. bnf. fr/ ark:/ 12148/ bpt6k152107/ f369. table). Annalen der Physik und Chemie 125: pp.351-400. . Consultado el 23 de septiembre de 2009. [3] Bronowski, J. (1979). El ascenso del hombre. Alejandro Ludlow Wiechers/BBC, trad. Bogot: Fondo Educativo Interamericano. [4] Vase el captulo 10, "Un mundo dentro del mundo", de El ascenso del hombre, de Jacob Bronowski. En (http:/ / www. youtube. com/ watch?v=C2p9By0qXms) pueden verse, en ingls, los ltimos minutos de ese captulo. [5] Jean-Bernard Brissaud. The meanings of entropy. Entropy 2005, 7.1, 68-96 (http:/ / www. mdpi. org/ entropy/ htm/ e7010068. htm)

Entropa
[6] Cuesta, Jos A.: La entropa como creadora de orden. Revista Espaola de Fsica, 2006, vol. 20, n. 4, p. 13-19 (http:/ / e-archivo. uc3m. es/ handle/ 10016/ 7209)

51

Enlaces externos
Entropa econmica (http://laentropiaeconomica.blogspot.com/2010/03/la-entropia-economica.html) Documentos de termodinmica (http://webserver.dmt.upm.es/~isidoro/bk3/index.html) Entendiendo la entropa (http://inquietudes.wordpress.com/2008/01/27/entendiendo-la-entropia/)

Segundo principio de la termodinmica


El segundo principio de la termodinmica o segunda ley de la termodinmica,[1] expresa que: La cantidad de entropa del universo tiende a incrementarse en el tiempo.[2] Es una de las leyes ms importantes de la fsica; an pudindose formular de muchas maneras todas llevan a la explicacin del concepto de irreversibilidad y al de entropa. Este ltimo concepto, cuando es tratado por otras ramas de la fsica, sobre todo por la mecnica estadstica y la teora de la informacin, queda ligado al grado de desorden de la materia y la energa de un sistema. La termodinmica, por su parte, no ofrece una explicacin fsica de la entropa, que queda asociada a la cantidad de energa no utilizable de un sistema. Sin embargo, esta interpretacin meramente fenomenolgica de la entropa es totalmente consistente con sus interpretaciones estadsticas. As, tendr ms entropa el agua en estado gaseoso con sus molculas dispersas y alejadas unas de las otras que la misma en estado lquido con sus molculas ms juntas y ms ordenadas. El segundo principio de la termodinmica dictamina que si bien la materia y la energa no se pueden crear ni destruir, s que se transforman, y establece el sentido en el que se produce dicha transformacin. Sin embargo, el punto capital del segundo principio es que, como ocurre con toda la teora termodinmica, se refiere nica y exclusivamente a estados de equilibrio. Toda definicin, corolario o concepto que de l se extraiga slo podr aplicarse a estados de equilibrio, por lo que, formalmente, parmetros tales como la temperatura o la propia entropa quedarn definidos nicamente para estados de equilibrio. As, segn el segundo principio, cuando se tiene un sistema que pasa de un estado de equilibrio A a otro B, la cantidad de entropa en el estado de equilibrio B ser la mxima posible, e inevitablemente mayor a la del estado de equilibrio A. Evidentemente, el sistema slo har trabajo cuando est en el trnsito del estado de equilibrio A al B y no cuando se encuentre en uno de estos estados. Sin embargo, si el sistema era cerrado, su energa y cantidad de materia no han podido variar; si la entropa debe de maximizarse en cada transicin de un estado de equilibrio a otro, y el desorden interno del sistema debe aumentar, se ve claramente un lmite natural: cada vez costar ms extraer la misma cantidad de trabajo, pues segn la mecnica estadstica el desorden equivalente debe aumentar exponencialmente. Aplicado este concepto a un fenmeno de la naturaleza como por ejemplo la vida de las estrellas, las mismas, al convertir el hidrgeno, su combustible principal, en helio generan luz y calor. Al fusionar los ncleos de hidrgeno en su interior la estrella libera la energa suficiente para producirlos a esa intensidad; sin embargo, cuando intenta fusionar los ncleos de Helio no consigue liberar la misma cantidad de energa que obtena cuando fusionaba los ncleos de hidrgeno. Cada vez que la estrella fusiona los ncleos de un elemento obtiene otro que le es ms intil para obtener energa y por ende la estrella muere, y en ese orden de ideas la materia que deja atrs ya no servir para generar otra estrella. Es as como el segundo principio de la termodinmica se ha utilizado para explicar el fin del universo.

Segundo principio de la termodinmica

52

Definicin axiomtica
La definicin formal del segundo principio de la termodinmica establece que: En un estado de equilibrio, los valores que toman los parmetros caractersticos de un sistema termodinmico cerrado son tales que maximizan el valor de una cierta magnitud que est en funcin de dichos parmetros, llamada entropa.
[3]

La entropa de un sistema es una magnitud fsica abstracta que la mecnica estadstica identifica con el grado de desorden molecular interno de un sistema fsico. La termodinmica clsica, en cambio, la define como la relacin entre el calor transmitido y la temperatura a la que se transmite. La termodinmica axiomtica, en cambio, define a la entropa como una cierta funcin a priori, de forma desconocida, que depende de los llamados "parmetros caractersticos" del sistema, y que slo puede definirse para los estados de equilibrio del sistema. Dichos parmetros caractersticos se establecen a partir de un postulado derivado del primer principio de la termodinmica, llamado a veces el principio de estado. Segn ste, el estado de equilibrio de un sistema queda totalmente definido por medio de la energa interna del sistema, su volumen y su composicin molar. Cualquier otro parmetro termodinmico, como podran serlo la temperatura o la presin, se define como una funcin de dichos parmetros. As, la entropa ser tambin una funcin de dichos parmetros. El segundo principio de la termodinmica establece que dicha entropa slo puede definirse para estados de equilibrio termodinmico, y que de entre todos los estados de equilibrio posibles que vendrn definido por los parmetros caractersticos, slo se puede dar el que, de entre todos ellos, maximiza la entropa. Las consecuencias de este enunciado son sutiles: al considerar un sistema cerrado tendente al equilibrio, los estados de equilibrio posibles incluyen todos aquellos que sean compatibles con los lmites o contornos del sistema. Entre ellos se encuentra, evidentemente, el estado de equilibrio de partida. Si el sistema vara su estado de equilibrio desde el de partida a otro, ello es debido a que la entropa del nuevo estado es mayor que la del estado inicial; si el sistema cambia de estado de equilibrio, su entropa slo puede aumentar. Por tanto, la entropa de un sistema aislado termodinmicamente slo puede incrementarse. Suponiendo que el universo parti de un estado de equilibrio, que en todo instante de tiempo el universo no se aleja demasiado del equilibrio termodinmico y que el universo es un sistema aislado, el segundo principio de la termodinmica puede formularse de la siguiente manera; La cantidad de entropa del universo tiende a incrementarse con el tiempo. Sin embargo, la termodinmica axiomtica no reconoce al tiempo como una variable termodinmica. Formalmente, la entropa slo puede definirse para estados en equilibrio. En el proceso que va de un estado de equilibrio a otro no hay estados de equilibrio, por lo que la entropa en dichos estados de no-equilibrio no puede definirse sin incurrir en inconsistencias formales dentro de la propia termodinmica. As, la entropa no puede ser una funcin del tiempo, por lo que hablar de variaciones de la misma en el tiempo es formalmente incorrecto. Cuando se hace, es debido a que se ha presupuesto que en el proceso de un estado de equilibrio a otro se ha pasado por infinitos estados intermedios de equilibrio, procedimiento que permite introducir al tiempo como parmetro. En tanto en cuanto el estado de equilibrio final sea aqul de mxima entropa posible, no se habr incurrido en una inconsistencia frontal por cuanto dichos estados de equilibrio intermedios no han afectado al nico real (el final). La formulacin clsica defiende que el cambio en la entropa S es siempre mayor o igual exclusivo para procesos reversibles que la transferencia de calor Q producida, dividido por la temperatura de equilibrio T del sistema:[4]

Segundo principio de la termodinmica

53

Descripcin general
El enunciado axiomtico del segundo principio pone inmediatamente de manifiesto su principal caracterstica: se trata de una de las pocas leyes ontolgicas de la Fsica, en tanto que distingue, de manera general, aquellos procesos y estados fsicos que son posible de aquellos que no lo son; esto es, el segundo principio permite determinar la posibilidad de un proceso o estado. De hecho, en un sentido histrico el segundo principio surgi, en plena Revolucin Industrial en el contexto de las mquinas trmicas como una explicacin emprica de por qu stas se comportaban de una manera determinada y no de otra. Suponiendo estados iniciales y finales de En efecto, aunque parezca trivial, siempre se observaba, por ejemplo, equilibrio, el principio establece que los sistemas que para calentar una caldera era necesario emplear combustible fsicos saltan de un estado con cierto orden a un ardiendo a mayor temperatura que la de la caldera; sin embargo, jams estado menos ordenado, aumentando su entropa. El proceso inverso es imposible de forma se observaba que la caldera se calentara tomando energa de su espontnea. entorno, el cual a su vez se enfriara. De hecho, podra razonarse que, en virtud del primer principio de la termodinmica, nada impide que, espontneamente, sea posible extraer calor de un cuerpo fro, por ejemplo a 200K, para transmitrselo a otro caliente, por ejemplo a 1000K: basta con que se cumpla el balance energtico correspondiente, a consecuencia del cual el cuerpo fro se enfriara an ms, y el caliente se calentara ms an. Sin embargo, todo esto es contrario a toda experiencia; y aunque parezca comn y hasta trivial, tena un extraordinario impacto en las mquinas empleadas en la Revolucin Industrial: por ejemplo, de no haber sido as, las mquinas podran funcionar sin necesitar combustible, pues la energa necesaria podra transferirse de manera espontnea del resto del ambiente. Sin embargo, las mquinas trmicas parecan obedecer una determinada ley, que se materializ en el segundo principio: para producir trabajo mecnico, era necesario aportar energa adicional (el combustible), que a su vez era siempre mayor que la cantidad de trabajo extrado. El concepto de mquina trmica aparece as ntimamente ligado al enunciado inicial del segundo principio. Una mquina trmica es aquella que provee de trabajo eficaz gracias a la diferencia de temperaturas entre dos cuerpos. Dado que cualquier mquina termodinmica requiere una diferencia de temperatura, se deriva pues que ningn trabajo til puede extraerse de un sistema aislado en equilibrio trmico, esto es, se requerir de la alimentacin de energa del exterior. Ese principio emprico, extrado de la observacin continua de cmo funciona el universo, constituye uno de los primeros enunciados del Segundo Principio de la Termodinmica: es imposible todo proceso cclico cuyo nico resultado sea la absorcin de energa en forma de calor procedente de un foco trmico (o reservorio o depsito trmico), y la conversin de toda sta energa en forma de calor en energa en forma de trabajo.

Enunciados clsicos
La segunda ley de la termodinmica ha sido expresada de muchas maneras diferentes. Sucintamente, la termodinmica clsica la ha expresado as: Es imposible un proceso cuyo nico resultado sea la transferencia de energa en forma de calor de un cuerpo de menor temperatura a otro de mayor temperatura. Enunciado de Clausius. Es imposible todo proceso cclico cuyo nico resultado sea la absorcin de energa en forma de calor procedente de un foco trmico (o reservorio o depsito trmico), y la conversin de toda sta energa en forma de calor en energa en forma de trabajo. Enunciado de Kelvin-Planck.

Segundo principio de la termodinmica Para todo sistema potencialmente cclico es imposible una nica transferencia de calor tal que dicho proceso sea recproco y eventualmente reversible.. Enunciado de John De Saint. Algunos corolarios del principio, a veces empleados como enunciados alternativos, seran: Ningn proceso cclico es tal que el sistema en el que ocurre y su entorno puedan volver a la vez al mismo estado del que partieron. En un sistema aislado, ningn proceso puede ocurrir si a l se asocia una disminucin de la entropa total del sistema. Corolario del principio, debido a Clausius. Visualmente, el segundo principio se puede expresar imaginando una caldera de un barco de vapor. sta no podra producir trabajo si no fuese porque el vapor se encuentra a temperaturas y presin elevadas comparados con el medio que la rodea. Matemticamente, se expresa as:

54

donde S es la entropa y el smbolo de igualdad slo existe cuando la entropa se encuentra en su valor mximo (en equilibrio).

Entropa en mecnica estadstica


La Termodinmica no ofrece ninguna interpretacin fsica de lo que es la entropa: simplemente la define como una funcin matemtica que toma su mximo valor para cada estado de equilibrio. La habitual identificacin de entropa con desorden molecular proviene de una muy simplificada interpretacin de los resultados de la mecnica estadstica; en concreto, del llamado formalismo microcannico de la mecnica estadstica. Es importante recalcar que la termodinmica y la mecnica estadstica, aunque relacionadas, son ramas separadas de la fsica. Interpretacin microcannica de la entropa con base en el segundo principio de la termodinmica La ecuacin fundamental de un sistema cerrado termodinmico en equilibrio puede expresarse como

Donde S representa la entropa del sistema desde un punto de vista termodinmico, U la energa interna del sistema, y N1, N2, etc el nmero de moles de cada componente del sistema. Todas estas magnitudes son macroscpicas, en el sentido de que son expresadas y pueden ser medidas y calculadas sin entrar a considerar la naturaleza microscpica (esto es, de los tomos, molculas, etc), que componen el sistema termodinmico. Intuitivamente, puede parecer razonable suponer que si el sistema est en equilibrio, entonces sus componentes ms fundamentales, sus tomos y molculas, tambin lo estn. Sin embargo, un resultado fundamental de la mecnica cuntica afirma que si el sistema es macroscpico, entonces pueden existir multitud de estados cunticos discretos para sus tomos y molculas que, globalmente, sean compatibles con los valores de U, V y N1,N2,... del sistema macroscpico. En principio, no obstante, aunque exista esa potencial capacidad de los componentes microscpicos del sistema para pasar de un estado cuntico a otro, como el sistema es cerrado y est en equilibrio podra razonarse que tales transiciones no se van a dar. Ahora bien, en realidad no existe un sistema aislado perfecto. Por ejemplo, aunque seamos capaces de aislar trmicamente al sistema de manera absoluta, no podremos evitar los efectos gravitatorios que el resto del universo seguir ejerciendo sobre la materia que hayamos encerrado dentro; tampoco podr aislarse perfectamente de todos los campos electromagnticos que lo rodeen, por muy dbiles que puedan resultar. En definitiva, el sistema podr estar cerrado a efectos macroscpicos, pero la accin de todo tipo de campos de fuerza (sean de gravedad, elctricas,...) y la propia interaccin del sistema con las paredes que lo encierren harn que, al menos desde un punto

Segundo principio de la termodinmica de vista microscpico, el sistema no est en equilibrio: los tomos y molculas estarn sometidos a continuas transiciones de un estado cuntico a otro cuyas causas son, a todos los efectos, meramente azarosas, de tantas y tan indefinidas que pueden ser. La mecnica estadstica considera que un sistema macroscpico realiza transiciones enormemente rpidas y totalmente aleatorias entre los distintos estados cunticos que sean posibles, de manera que las medidas macroscpicas de parmetros tales como la temperatura, la energa, incluso el volumen,... son en realidad la media de las miradas de estados cunticos o microscpicos. Y como dichas transiciones estn producidas por procesos esencialmente aleatorios, se acepta como principio que un sistema macroscpico visita todos los estados microscpicos permisibles con igual probabilidad. A dichos estados microscpicos permisibles se les llama microestados. Para cada estado macroscpico de equilibrio, el nmero de microestados permitidos es uno determinado por las leyes de la fsica. Por ejemplo, si un sistema macroscpico tiene por energa 1000 julios, es absurdo suponer que un microestado de dicho sistema pueda tener ms de 1000 julios de energa. Si se considera un estado de equilibrio macroscpico, segn el segundo principio de la termodinmica ste vendr totalmente definido por los valores de las variables termodinmicas U, V , N1, N2, etc. para los que la entropa S toma su mximo valor entre todos los posibles. Supongamos que tenemos un sistema termodinmico en equilibrio que viene definido por una limitacin fundamental: no se permite que el sistema tenga un volumen mayor que uno concreto, y la cantidad de materia del sistema es la que se haya dado al comienzo. Por ejemplo, gas en una bombona de gas: no puede tener un volumen mayor que el de la bombona, ni puede haber ms cantidad de gas que la que se ha colocado dentro. Atendiendo a esa limitacin de volumen y masa, el sistema adquirir los valores de U tales que maximicen la entropa, y entonces habr alcanzado el equilibrio macroscpico. Asociado a ese estado macroscpico de equilibrio, tenemos el de los microestados: las molculas del sistema podrn presentar transiciones aleatorias entre distintos microestados dentro de los lmites impuestos por el propio sistema. No podrn, por ejemplo, desplazarse ms all de las barreras del sistema, ni podrn vibrar con una energa mayor que la energa total del sistema macroscpico, etc. Esto es, asociado al equilibrio macroscpcio se tiene un nmero limitado, aunque posiblemente inmenso, de microestados que los constituyentes microscpicos del sistema pueden visitar con igual probabilidad. Si retiramos ahora una restriccin al sistema macroscpico, como por ejemplo permitir que el volumen sea ahora mayor que antes, pasarn dos cosas: Desde el punto de vista de la termodinmica, esto es, desde el punto de vista macroscpico, las variables del sistema evolucionarn hacia un estado de entropa mayor: el volumen V es ahora mayor que antes, y aunque la cantidad de materia es la misma, sta ahora puede ocupar ms volumen. As, la energa interna del sistema U variar de manera que, en el nuevo estado de equilibrio, la entropa S tome el mximo valor posible. Dicho valor es necesariamente mayor que el del estado de equilibrio previo. En efecto, podemos concebir la situacin en la que, aunque puede, el sistema se mantiene en su volumen anterior, con la misma energa interna y misma materia. En ese caso, la entropa no habr cambiado. Y ese caso es compatible con los lmites del sistema. Sin embargo, sabemos que la naturaleza no opera as: el sistema tender a ocupar todo el volumen (aunque sea un slido, en cuyo caso la presin de vapor del slido cambiar, o se evaporar ms slido, etc), y el equilibrio se desplazar. La funcin entropa es aquella funcin matemtica que toma su valor mximo en ese nuevo equilibrio, y deber ser por tanto mayor que en el estado de equilibrio anterior. Desde el punto de vista microscpico, ocurre que ahora el nmero de microestados que son compatibles con los lmites del sistema ha aumentado. En efecto, seguiremos teniendo los mismos de antes, pero a estos se les suman otros nuevos. Por ejemplo, ahora un tomo podr moverse no ya dentro del volumen anterior, sino tambin dentro de todo el nuevo volumen. As, a la vez que la entropa aumenta se produce un incremento del nmero de microestados posibles. Esto sugiere que la entropa puede identificarse con el nmero de microestados consistentes con las limitaciones macroscpicas

55

Segundo principio de la termodinmica impuestas sobre el sistema. Siendo los microestados producto del azar, y siendo la probabilidad de que cada uno de ellos se d la misma, es natural identificar por tanto entropa con desorden microscpico. Existe un nico problema: segn la termodinmica, la entropa es aditiva. Esto es, la entropa de dos sistemas iguales es el doble que la entropa individual de cada uno de ellos. Sin embargo, el nmero de microestados posibles es multiplicativo. Esto es, el nmero de microestados de dos sistemas es el producto del nmero de microestados de cada uno de ellos. Por ejemplo, el nmero de "microestados" de dos dados, si el de cada uno de ellos es 6 (cada cara del dado es un microestado posible), es 6x6=36 microestados (tener un "1" en el primero, un "3" en el segundo; un "2" en el primero, un "5" en el segundo, etc). Para interpretar la entropa necesitaremos conseguir que el nmero de microestados cumpla una regla aditiva. La nica solucin a esto es identificar la entropa con el logaritmo del nmero de microestados posibles. Llamando al nmero de microestados y S a la entropa, podremos escribir que:

56

Donde kB es la constante de Boltzmann, y aparece sencillamente para determinar la escala de la entropa, que suele darse como energa por grado de temperatura (J/K) , aunque segn esta interpretacin podra carecer de unidades. Interpretacin cannica La interpretacin microcannica de la entropa concibe un sistema termodinmico aislado, esto es, un sistema termodinmico que no intercambia ni materia ni energa ni volumen con el exterior: la composicin del sistema, dada por N1,N2, ... , su energa interna U y su volumen V no cambian en ella. El sistema por antonomasia que cumple dichas condiciones es el propio universo. Sin embargo, en muchas ocasiones se contemplan sistemas que s intercambian energa, masa o volumen con su entorno. Para esos casos, es necesario extender las interpretaciones estadsticas de la entropa, si bien globalmente es la interpretacin microcannica la que perdura. En efecto, si consideramos un sistema que por ejemplo intercambia materia con su entorno, podemos concebir un sistema mayor que incluya al sistema inicial y a su entorno de manera que el sistema global se amolde a la interpretacin microcannica; en el lmite, dicho sistema ser el propio universo. Y es precisamente la entropa del sistema microcannico la que queda sujeta al segundo principio de la termodinmica, esto es, aquella que debe aumentar al variarse el equilibrio global del sistema. Evidentemente, podra entonces pensarse que cualquier sistema, sean cuales sean las condiciones de intercambio con su entorno, puede ser tratado concibiendo el sistema global que quede sujeto a la interpretacin microcannica. En efecto, en principio su estado de equilibrio debera poder obtenerse sin ms que considerar el nmero total de microestados del sistema global. Esto, sin embargo, puede ser muy costoso por no decir prcticamente imposible de estimar en la mayor parte de las circunstancias: los clculos combinatorios sobre el nmero de formas en que la energa disponible en un sistema puede distribuirse suele quedar ms all de todo conocimiento matemtico. Y es para solventar esas deficiencias que surgen el resto de interpretaciones de la entropa. La interpretacin cannica, a veces llamada formalismo cannico o de Helmholtz, considera un sistema termodinmico capaz de intercambiar energa con un reservorio trmico o termostato. Segn esto, al disponer de una fuente infinita de energa, todo estado energtico, desde el de menor energa hasta el de mayor, ser concebible para el sistema. Sin embargo, en oposicin al sistema microcannico, la probabilidad de cada uno de esos estados no ser la misma: el sistema no estar la misma fraccin de tiempo en cada uno de esos estados. El punto central del formalismo cannico es determinar la distribucin de probabilidad de los microestados. Y dicho problema se resuelve teniendo en cuenta que el sistema global formado por el termostato y el sistema en cuestin es un sistema cerrado, esto es, cumple el formalismo microcannico de que la probabilidad de cada microestado global es la misma. Si la energa total del sistema global es Etot, y la de un microestado del sistema local es Ej, al estar el sistema local en un estado de energa Ej el termostato quedar reducido inevitablemente a uno de energa Etot - Ej. La probabilidad de que el sistema global est en un microestado tal que el termostato tenga energa Etot - Ej y el sistema local Ej ser

Segundo principio de la termodinmica entonces:

57

Siguiendo la definicin de la entropa segn Boltzmann, dicha ecuacin puede escribirse como:

La energa interna U ser el valor medio de la energa del sistema local, por lo que, como la entropa es aditiva, puede escribirse que:

Si se desarrolla en serie

tendremos que: .

De este modo, la probabilidad puede expresarse como:

Y como , donde .

es la energa libre de Helmholtz, podemos expresar dicha probabilidad como:

La probabilidad total de estar en alguno de dichos estados es la unidad, por lo que: , de donde se define . Z es las la llamada funcin de particin cannica, generalmente definida como:

Si para un sistema de partculas en equilibrio trmico se conoce la funcin de particin Z, se puede calcular la entropa mediante:

Donde kB es la constante de Boltzmann, T la temperatura y las probabilidades Pj. Esta es la interpretacin de la entropa, llamada interpretacin cannica o entropa de Helmholtz.

Segundo principio de la termodinmica

58

Entropa de Von Neumann en mecnica cuntica


En el siglo XIX el concepto de entropa fue aplicado a sistemas formados por muchas partculas que se comportan clsicamente, a principios del siglo XX Von Neumann generaliz el concepto de entropa para sistemas de partculas cunticas, definiendo para un estados mezcla caracterizado por una matriz densidad la entropa cuntica de Von Neumann como la magnitud escalar:

Entropa generalizada en Relatividad general


El intento de extender el anlisis termodinmico convencional al universo entero, llev a examinar a principios de los 70 el comportamiento termodinmico de estructuras como los agujeros negros. El resultado preliminar de dicho anlisis revel algo muy interesante, que la segunda ley tal como haba sido formulada convencionalmente para sistemas clsicos y cunticos podra ser violada en presencia de agujeros negros. Sin embargo, los trabajos de Jacob D. Bekenstein sobre teora de la informacin y agujeros negros sugirieron que la segunda ley seguira siendo vlida si se introduca una entropa generalizada (Sgen) que sumara a la entropa convencional (Sconv), la entropa atribuible a los agujeros negros que depende del rea total (A) de agujeros negros en el universo. Concretamente esta entropa generalizada debe definirse como:

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de gravitacin universal y la constante de Planck racionalizada.

es

Notas
[1] En espaol (como en francs), a diferencia del ingls por ejemplo, First law of thermodynamics, se usa la palabra principio para designar leyes naturales que no pueden demostrarse explcitamente, sin embargo se pueden medir y cuantificar observando los resultados que producen. [2] Esta definicin plantea un problema difcil de solventar; la entropa clsica slo se define formalmente para estados de equilibrio, siendo complicado extender el concepto de equilibrio al universo completo en cualquier instante. [3] H. Callen (1985) Thermodynamics and an Introduction to Thermostatistics, Wiley, NY. [4] A. Bejan, (2006). 'Advanced Engineering Thermodynamics', Wiley. ISBN 0471677639

Constante de Boltzmann

59

Constante de Boltzmann
La constante de Boltzmann (k o kB) es la constante fsica que relaciona temperatura absoluta y energa. Se llama as por el fsico austriaco Ludwig Boltzmann, quien hizo importantes contribuciones a la teora de la mecnica estadstica, en la que esta constante desempea un papel fundamental. Su valor es (en SI):

Valores

[1]

de k

Unidades

1,3806488(13)1023 J K1 8,6173324(78)10-5 eV K1

1,3806488(13) 10-16 erg K1

Constante de Stefan-Boltzmann
La constante de Stefan-Boltzmann dentro de la radiacin trmica como mecanismo bsico de la transmisin de calor es:

Referencias
[1] P.J. Mohr, B.N. Taylor, and D.B. Newell (2011), "The 2010 CODATA Recommended Values of the Fundamental Physical Constants" (Web Version 6.0). This database was developed by J. Baker, M. Douma, and S. Kotochigova. Available: http:/ / physics. nist. gov/ constants [Thursday, 02-Jun-2011 21:00:12 EDT]. National Institute of Standards and Technology, Gaithersburg, MD 20899.

Otras lecturas
J. Bronowski (1979). El ascenso del hombre (cap. 10, "Un mundo dentro del mundo"). Bogot: Fondo Educativo Interamericano. No. 853 (Alejandro Ludlow Wiechers/BBC, trad.).

Enlaces externos
Los ltimos minutos del captulo 10, "Un mundo dentro del mundo", (http://www.youtube.com/ watch?v=C2p9By0qXms) de El ascenso del hombre, de Jacob Bronowski, donde el autor rinde homenaje a Ludwig Boltzmann. (en ingls)

Neguentropa

60

Neguentropa
La neguentropa o negantropa, tambin llamada entropa negativa o sintropa, de un sistema vivo, es la entropa que el sistema exporta para mantener su entropa baja; se encuentra en la interseccin de la entropa y la vida. La neguentropa se puede definir como la tendencia natural de que un sistema se modifique segn su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el mtodo de neguentropa.

Concepto de entropa negativa


El concepto de entropa negativa fue introducido por Erwin Schrdinger (fsico terico, y uno de los padres de la mecnica cuntica) en su libro de ciencia popular what is life?, publicado en 1943. Ms tarde, Lon Brillouin cambio la palabra a neguentropa, para expresarla en una forma mucho ms positiva, diciendo que un sistema vivo importa neguentropa y la almacena. En 1974, Albert SzentGyrgyi (Nobel de Fisiologa Mdica en 1937) propuso cambiar el trmino de neguentropia a sintropia, aunque este ltimo ya haba sido usado por el matemtico Luigi Fantappi, quien lo us con el fin de construir una teora unificando la fsica y la biologa. Buckminster Fuller, ingeniero, arquitecto y diseador del siglo XX, trato de hacer popular este trmino, pero la palabra neguentropa siempre permaneci como la comn. En el ao 2009, Mahulikar & Herwig redefinieron la neguentropa de un sub-sistema ordenado dinmicamente como el dficit de entropa relacionado al caos que rodea el sub-sistema ordenado. De esta forma, las unidades de la neguentropa son [J/kg-K] cuando se define con base en la entropa por unidad de masa, mientras que cuando se define con base en la entropa por unidad de energa las unidades son [K-1]. Esta definicin ha habilitado: 1. Representaciones termodinmicas a escala invariante de la existencia de un orden dinmico, 2. pensamiento de principios fsicos exclusivamente para la existencia de un orden dinmico y evolucin, y 3. la interpretacin matemtica de la neguentropa de Schrdinger.

Contrastes
As como la entropa establece que la energa y cualquiera de sus formas de manifestarse (ya sea en forma de materia, de plasma o radiacin) tiende a buscar un estado de equilibrio inexpresivo continuo, la neguentropa define la energa como una serie de causas y efectos armnicamente acomodadas en las que la suma total de los efectos armnicos dan como resultado un acople de mayor magnitud que el original, siendo una forma de resonancia que da como resultado paquetes de energa perfectamente utilizables por cualquier sistema perceptor de sus efectos.

Teora de la informacin
En la teora de la informacin y la estadstica, la neguentropa se usa como medida de distancia de normalidad. Si se considera una seal con una cierta distribucin, y la seal es gausiana, esta tendr una distribucin normal. La neguentropa es siempre positiva, invariante a cambios de coordenadas lineales, y se desvanece si y solo si la seal es gausiana. La neguentropa se define por:

Donde S() es el diferencial de entropa de la densidad gausiana con la misma media y varianza, mientras que p y S(p) es la entropa diferencial de p:

Neguentropa La neguentropa se usa es estadstica y procesamiento de seales. Est relacionada a la entropa de redes, que es usada en anlisis de componentes independientes. La neguentropa puede ser entendida intuitivamente como la informacin que puede ser guardada cuando se representa p de forma eficiente: si p fuera una variable aleatoria (con distribucin gausiana) con misma media y varianza, se necesitara una mxima longitud de datos para ser representada, incluso en su forma ms eficiente. Como p no es tan aleatorio, algo se sabe de antemano. p contiene menos informacin desconocida, y necesita menos longitud de datos para ser representado de forma ms eficiente.

61

Correlacin entre neguentropa estadstica y energa libre de Gibbs


Existe una magnitud fsica estrechamente vinculada a la energa libre (entalpia libre), con una unidad de entropa isomrfica a la neguentropa, conocida en estadstica y en teora de la informacin. En 1873 Willard Gibbs cre un diagrama ilustrando el concepto de energa libre correspondiente a entalpia libre. En el diagrama se puede ver la cantidad llamada capacidad de la entropa. Dicha cantidad es la entropa que se puede incrementar sin cambiar la energa interna o aumentar el volumen. En otras palabras, se trata de una diferencia entre el mximo posible, en condiciones de asumir, la entropa y la entropa real. Esto corresponde exactamente a la definicin de neguentropa adoptada por la estadstica y la teora de la informacin. Una cantidad fsica similar fue presentada en 1869 por Massieu para el proceso isotrmico, y luego por Max Planck para el proceso isotrmico-isobrico. Ms adelante, el potencial termodinmico de Massieu-Planck, conocido tambin como entropa libre, ha mostrado jugar un rol importante en la formulacin entrpica de la mecnica estadstica, con aplicaciones en biologa molecular y en procesos termodinmicos no equilibrados.

Donde: - (Capacidad para entropa de Gibbs) Potencial de Massieu - Funcin de particion - Constante de Boltzman

Grfica de energa libre de Gibbs (Willard Gibbs en 1873), la cual muestra un plano perpendicular al eje de v (volumen) y pasando por el punto A, que representa el estado inicial del cuerpo. MN es la seccin de la superficie de la energa disipada. Q y Q son secciones de los planos = 0 y = 0, y por tanto paralelos a los ejes de (energa interna) y (entropa) respectivamente. AD y AE son la energa y entropa del cuerpo en su estado inicial. En AB y AC, su energa disponible (energa libre de Gibbs) y su capacidad de entropa (la cantidad por la cual la entropa del cuerpo puede aumentar sin cambiar la energa del cuerpo o aumentar su volumen) respectivamente.

Teora de la organizacin
En 1988, basndose en la definicin de entropa estadstica de Shannon, Mario Ludovico dio una definicin formal al trmino sintropia, como una medida del grado de organizacin interna de cualquier sistema formado por

Neguentropa componentes que interactan entre si. De acuerdo a esta definicin, la sintropa es una cantidad complementaria a la entropa. La suma de dos cantidades define un valor constante, especficas del sistema en el que ese valor constante identifica el potencial de transformacin. Usando estas definiciones, la teora desarrolla ecuaciones aptas para describir y simular cualquier posible forma de evolucin del sistema, ya sea hacia niveles mayores o menores de organizacin interna (por ejemplo la sintropia), o hacia el colapso del sistema. La organizacin como sistema (abierto) esta constituido por los elementos bsicos de este (entradas, medio, salidas y retroalimentacin) y es en las entradas donde la informacin juega un papel clave como medio regulador, medio neguentrpico, ya que a travs de ella se puede disminuir la cantidad de incertidumbre (entropa). Se puede considerar a la informacin como elemento generador de orden y como herramienta fundamental para la toma de decisiones en la organizacin o en cualquier sistema en el que se presenten situaciones de eleccin con mltiples alternativas. En la gestin de riesgos, neguentropa es la fuerza que tiene por objeto lograr un comportamiento organizacional eficaz y conducir a un estado estacionario predecible.

62

Referencias
Bibliografa
Luz Amanda Camacho: Teora general de sistemas. Johansen O.: Las comunicaciones y la conducta organizacional. Juan Vergara: Gestin por Procesos ITM.

Enlaces externos
La neguentropa como desmitificadora de la ciencia y consolidadora de la vida material (http://www.nodo50. org/tortuga/article.php3?id_article=3894)

Ciclo de Carnot

63

Ciclo de Carnot
El ciclo de Carnot se produce cuando un equipo que trabaja absorbiendo una cantidad de calor Q1 de la fuente de alta temperatura y cede un calor Q2 a la de baja temperatura produciendo un trabajo sobre el exterior. El rendimiento viene definido, como en todo ciclo, por

y, como se ver adelante, es mayor que cualquier mquina que funcione cclicamente entre las mismas fuentes de temperatura. Una mquina trmica que realiza este ciclo se denomina mquina de Carnot. Como todos los procesos que tienen lugar en el ciclo ideal son reversibles, el ciclo puede invertirse. Entonces la mquina absorbe calor de la fuente fra y Esquema de una mquina de Carnot. La mquina absorbe calor desde cede calor a la fuente caliente, teniendo que suministrar la fuente caliente T1 y cede calor a la fra T2 produciendo trabajo. trabajo a la mquina. Si el objetivo de esta mquina es extraer calor de la fuente fra se denomina mquina frigorfica, y si es extraer calor de la fuente caliente, bomba de calor.

El ciclo de Carnot
El ciclo de Carnot consta de cuatro etapas: dos procesos isotermos (a temperatura constante) y dos adiabticos (aislados trmicamente). Las aplicaciones del Primer principio de la termodinmica estn escritos acorde con el Criterio de signos termodinmico. Expansin isoterma: (proceso 1 2 en el diagrama) Se parte de una situacin en que el gas se encuentra al mnimo volumen del ciclo y a temperatura T1 de la fuente caliente. En este estado se transfiere calor al cilindro desde la fuente de temperatura T1, haciendo que el gas se expanda. Al expandirse, el gas tiende a enfriarse, pero absorbe calor de T1 y mantiene su temperatura constante. Al tratarse de un gas ideal, al no cambiar la temperatura

Diagrama del ciclo de Carnot en funcin de la presin y el volumen.

tampoco

lo

hace

su

energa

interna,

despreciando

Ciclo de Carnot

64

los cambios en la energa potencial y la cintica, a partir de la 1 ley de la termodinmica vemos que todo el calor transferido es convertido en trabajo:

Desde el punto de vista de la entropa, sta aumenta en este proceso: por definicin, una variacin de entropa viene dada por el cociente entre el calor transferido y la temperatura de la fuente en un proceso reversible: . Como el

proceso es efectivamente reversible, la entropa aumentar


Diagrama del ciclo de Carnot en funcin de la temperatura y la entropa.

Expansin adiabtica: (2 3) La expansin isoterma termina en un punto tal que el resto de la expansin pueda realizarse sin intercambio de calor. A partir de aqu el sistema se asla trmicamente, con lo que no hay transferencia de calor con el exterior. Esta expansin adiabtica hace que el gas se enfre hasta alcanzar exactamente la temperatura T2 en el momento en que el gas alcanza su volumen mximo. Al enfriarse disminuye su energa interna, con lo que utilizando un razonamiento anlogo al anterior proceso:

Esta vez, al no haber transferencia de calor, la entropa se mantiene constante: Compresin isoterma: (3 4) Se pone en contacto con el sistema la fuente de calor de temperatura T2 y el gas comienza a comprimirse, pero no aumenta su temperatura porque va cediendo calor a la fuente fra. Al no cambiar la temperatura tampoco lo hace la energa interna, y la cesin de calor implica que hay que hacer un trabajo sobre el sistema:

Al ser el calor negativo, la entropa disminuye: Compresin adiabtica: (4 1) Aislado trmicamente, el sistema evoluciona comprimindose y aumentando su temperatura hasta el estado inicial. La energa interna aumenta y el calor es nulo, habiendo que comunicar un trabajo al sistema:

Al ser un proceso adiabtico, no hay transferencia de calor, por lo tanto la entropa no vara:

Ciclo de Carnot

65

Trabajo del ciclo


Por convencin de signos, un signo negativo significa lo contrario. Es decir, un trabajo negativo significa que el trabajo es realizado sobre el sistema. Con este convenio de signos el trabajo obtenido deber ser, por lo tanto, negativo. Tal como est definido, y despreciando los cambios en energa mecnica, a partir de la primera ley:

Como dU (diferencial de la energa interna) es una diferencial exacta, el valor de U es el mismo al inicio y al final del ciclo, y es independiente del camino, por lo tanto la integral de dU vale cero, con lo que queda

Por lo tanto, en el ciclo el sistema ha realizado un trabajo sobre el exterior.

Teoremas de Carnot
1. No puede existir una mquina trmica que funcionando entre dos fuentes trmicas dadas tenga mayor rendimiento que una de Carnot que funcione entre esas mismas fuentes trmicas. Para demostrarlo supondremos que no se cumple el teorema, y se ver que el no cumplimiento transgrede la segunda ley de la termodinmica. Tenemos pues dos mquinas, una llamada X y otra, de Carnot, R, operando entre las mismas fuentes trmicas y absorbiendo el mismo calor de la caliente. Como suponemos que , y por definicin , donde y denotan el trabajo producido

y el calor cedido a la fuente fra respectivamente, y los subndices la mquina a la que se refieren. Como R es reversible, se le puede hacer funcionar como mquina frigorfica. Como X puede suministrar a R el trabajo un trabajo neto . Al funcionar en sentido inverso, R est absorbiendo calor

, la mquina de la fuente e

que necesita para funcionar como mquina frigorfica, y X producir

fra y est cediendo calor a la caliente. El sistema formado por las dos mquinas funciona cclicamente realizando un trabajo intercambiando un calor principio de la termodinmica. Por lo tanto:

con una nica fuente trmica, lo cual va en contra del segundo

2. Dos mquinas reversibles operando entre las mismas fuentes trmicas tienen el mismo rendimiento. Igual que antes, suponemos que no se cumple el teorema y veremos que se violar el segundo principio. Sean R1 y R2 dos mquinas reversibles, operando entre las mismas fuentes trmicas y absorbiendo el mismo calor de la caliente, con distintos rendimientos. Si es R1 la de menor rendimiento, entonces . Invirtiendo R1, la mquina R2 puede suministrale el trabajo R2 producir un trabajo intercambiando un calor Por lo tanto: . e con una nica fuente trmica, lo cual va en contra de la segunda ley. para que trabaje como mquina frigorfica, y

El sistema formado por las dos mquinas funciona cclicamente realizando un trabajo

Ciclo de Carnot

66

Rendimiento
A partir del segundo teorema de Carnot se puede decir que, como dos mquinas reversibles tienen el mismo rendimiento, ste ser independiente de la sustancia de trabajo de las mquinas, las propiedades o la forma en la que se realice el ciclo. Tan solo depender de las temperaturas de las fuentes entre las que trabaje. Si tenemos una mquina que trabaja entre fuentes a temperatura T1 y T2, el rendimiento ser una funcin de las dos como variables:

Por lo tanto, el cociente entre los calores transferidos es funcin de las temperaturas de las fuentes. Ntese que como, por la segunda ley de la termodinmica, el rendimiento nunca pude ser igual a la unidad, la funcin f est siempre definida. Consideremos ahora tres mquinas que trabajan entre fuentes a temperaturas tales que . La primera mquina trabaja entre las fuentes 1 y 2, la segunda entre 1 y 3, y la tercera entre 3 y 2, de modo que desde cada fuente se intercambia el mismo calor con las mquinas que actan sobre ella. Es decir, tanto la primera mquina como la segunda absorben un calor Q1, la segunda y la tercera ceden y absorben Q2 respectivamente y la primera y la tercera ceden Q3. De la ecuacin anterior podemos poner, aplicada a cada mquina:

Aplicando relaciones matemticas:

Como el primer miembro es funcin solamente de T1 y T2, tambin lo ser el segundo miembro, independientemente de T3. Para que eso se cumpla f debe ser de la forma

De las distintas funciones que satisfacen esa condicin, la ms sencilla es la propuesta por Kelvin, con lo que el cociente entre calores queda

y trasladando este cociente a la definicin de rendimiento:

Otra forma de llegar a este resultado es por medio de la entropa, definida como sacar los calores transferidos en los procesos 1 2 y 3 4:

. De ah se puede

Como puede observarse, el calor transferido con la primera fuente es positivo y con la segunda negativo, por el convenio de signos adoptado. Teniendo en cuenta que para calcular el rendimiento de un ciclo se utilizan los valores absolutos de los trabajos y calores,

Ciclo de Carnot

67

tenemos finalmente el resultado deseado:

Ciclo real
Todos los procesos reales tienen alguna irreversibilidad, ya sea mecnica por rozamiento, trmica o de otro tipo. Sin embargo, las irreversibilidades se pueden reducir, pudindose considerar reversible un proceso cuasiesttico y sin efectos disipativos. Los efectos disipativos se reducen minimizando el rozamiento entre las distintas partes del sistema y los gradientes de temperatura; el proceso es cuasiesttico si la desviacin del equilibrio termodinmico es a lo sumo infinitesimal, esto es, si el tiempo caracterstico del proceso es mucho mayor que el tiempo de relajacin (el tiempo que transcurre entre que se altera el equilibrio hasta que se recupera). Por ejemplo, si la velocidad con la que se desplaza un mbolo es pequea comparada con la del sonido del gas, se puede considerar que las propiedades son uniformes espacialmente, ya que el tiempo de relajacin mecnico es del orden de V1/3/a (donde V es el volumen del cilindro y a la velocidad del sonido), tiempo de propagacin de las ondas de presin, mucho ms pequeo que el tiempo caracterstico del proceso, V1/3/w (donde w es la velocidad del mbolo), y se pueden despreciar las irreversibilidades. Si se hace que los procesos adiabticos del ciclo sean lentos para minimizar las irreversibilidades se hace imposible frenar la transferencia de calor. Como las paredes reales del sistema no pueden ser completamente adiabticas, el aislamiento trmico es imposible, sobre todo si el tiempo caracterstico del proceso es largo. Adems, en los procesos isotermos del ciclo existen irreversibilidades inherentes a la transferencia de calor. Por lo tanto, es imposible conseguir un ciclo real libre de irreversibilidades, y por el primer teorema de Carnot la eficiencia ser menor que un ciclo ideal.

Bibliografa
Jess Biel Gay: Formalismos y Mtodos de la Termodinmica, Vol. 1. Editorial Revert. ISBN 84-291-4343-2

Enlaces externos
Wikimedia Commons alberga contenido multimedia sobre Ciclo de CarnotCommons. Ciclo de Carnot con applet Java [1] El ciclo de Carnot y el Teorema de Clausius (pdf) [2]

Referencias
[1] http:/ / www. sc. ehu. es/ sbweb/ fisica/ estadistica/ carnot/ carnot. htm [2] http:/ / personales. ya. com/ casanchi/ fis/ ciclo001. pdf

Mquina de Carnot

68

Mquina de Carnot
La mquina de Carnot es una mquina ideal que utiliza calor para realizar un trabajo. En ella hay un gas sobre el que se ejerce un proceso cclico de expansin y contraccin entre dos temperaturas. El ciclo termodinmico utilizado se denomina ciclo de Carnot y fue estudiado por Sadi Carnot alrededor de 1820. Una mquina de Carnot es el procedimiento ms eficaz para producir un trabajo a partir de dos focos de temperatura. Puede construirse a partir de un cilindro sobre el que discurre un pistn unido a una biela que convierte el movimiento lineal del pistn en movimiento circular. El cilindro contiene una cierta cantidad de un gas ideal y la mquina funciona intercambiando calor entre dos fuentes de temperaturas constantes T1 < T2. Las transferencias de calor entre las fuentes y el gas se hace isotrmicamante, es decir, manteniendo la temperatura constante. Esta parte del proceso es, por lo tanto, reversible. El ciclo se completa con una expansin y una compresin adiabticas, es decir, sin intercambio de calor, por lo que esta parte del ciclo es tambin reversible.

Funcionamiento de la Mquina de Carnot


(1) Expansin isotrmica. Se parte de una situacin en que el gas ocupa el volumen mnimo Vmin a la temperatura T2 y a presin alta. En este estado se transfiere calor al cilindro desde la fuente de Mquina Carnot "original", diagrama de 1824. temperatura T2, haciendo que el gas se expanda. Al expandirse, el gas tiende a enfriarse, pero absorbe calor de T2 y mantiene su temperatura constante. El volumen del gas aumenta produciendo un trabajo sobre el pistn. Dado que la temperatura permanece constante durante esta parte del ciclo, el gas no cambia su energa interna y todo el calor absorbido de T2 se convierte en trabajo (2) Expansin adiabtica. La expansin isotrmica termina en un punto tal que el resto de la expansin pueda realizarse sin intercambio de calor. Esta expansin adiabtica hace que el gas se enfre hasta alcanzar exactamente la temperatura T1 en el momento en que el pistn alcanza el punto mximo de su carrera y el gas alcanza su volumen mximo Vmax. Durante esta etapa todo el trabajo realizado por el gas proviene de su energa interna: (3) Compresin isotrmica. Se pone en contacto con el cilindro la fuente de calor de temperatura T1 y el gas comienza a comprimirse, pero no aumenta su temperatura porque va cediendo calor a la fuente fra. Durante esta parte del ciclo se hace trabajo sobre el gas pero, como la temperatura permanece constante, la energa interna no cambia y el trabajo es absorbido en forma de calor por la fuente T1: (4) Compresin adiabtica. La fuente T1 se retira en el momento adecuado para que durante el resto de la compresin el gas eleve su temperatura hasta alcanzar exactamente el valor T2 al mismo tiempo que el volumen del gas alcanza su valor mnimo Vmin. Durante esta etapa no hay intercambio de calor y el trabajo realizado sobre el gas se convierte en energa interna:

Mquina de Carnot

69

Trabajo realizado
Por la Primera Ley de la Termodinmica, en cada ciclo la mquina realiza un trabajo mecnico dW igual al calor dQ transferido de T2 a T1, lo cual se puede comprobar usando las igualdades obtenidas en cada ciclo: donde la segunda igualdad se obtiene de 1) y 3). Por otro lado, el estado del gas al terminar un ciclo es el mismo que al comenzarlo, por lo que el cambio de su energa interna debe ser cero:

De esta igualdad y de 1), 2), 3) y 4) se deduce que dW2 + dW4 = 0. Por lo tanto El rendimiento de una mquina de Carnot (el cociente entre el calor absorbido y el trabajo desempeado) es mximo y, siendo la temperatura del foco fro y la del foco caliente, puede calcularse como:

Energa de Gibbs
En termodinmica, la energa libre de Gibbs ( energa libre o entalpa libre) es un potencial termodinmico, es decir, una funcin de estado extensiva con unidades de energa, que da la condicin de equilibrio y de espontaneidad para una reaccin qumica (a presin y temperatura constantes). La segunda ley de la termodinmica postula que una reaccin qumica espontnea hace que la entropa del universo aumente, Suniverso>0, as mismo Suniverso esta en funcin de Ssistema y Salrededores. Por lo general slo importa lo que ocurre en el sistema en estudio y; por otro lado el clculo de Salrededores puede ser complicado. Por esta razn fue necesaria otra funcin termodinmica, la energa libre de Gibbs, que sirva para calcular si una reaccin ocurre de forma espontnea tomando en cuenta solo las variables del sistema.

Clculo de la energa libre


Los cambios en la energa libre Contenido de calor; T es la temperatura y S es la entropa del sistema. Fue desarrollada en los aos 1870 por el fsico-matemtico estadounidense Williard Gibbs.

Cambios de energa libre estndar


La energa libre de reaccin, se denota, Dada la siguiente ecuacin qumica: , es el cambio de energa en una reaccin a condiciones estndares. En esta reaccin los reactivos en su estado estndar se convierten en productos en su estado estndar.

La energa libre se calcula como

Donde A y B son los reactivos en estado estndar y; C y D son los productos en su estado estndar. Adems a, b, c y d son sus respectivos coeficientes estequiomtricos. en general:

Energa de Gibbs donde m y n son la multiplicacin de los coeficientes estequiomtricos. As como en el clculo de la entalpa, en la energa libre estndar de formacin para cualquier elemento en su forma estable (1 atm y 25C) es 0 La variacin de energa libre de Gibbs para un proceso a temperatura constante viene dada por:

70

La temperatura puede ser un factor determinante a la hora de hacer que un proceso sea espontneo o no lo sea.

Significado de
La condicin de equilibrio es La condicin de espontaneidad es El proceso no es espontneo cuando: (esta ltima condicin nos dice que la reaccin no se producir). La energa de Gibbs molar parcial, es lo que se conoce con el nombre de potencial qumico, que es lo que se maneja en clculos termodinmicos en equilibrio, ya que el equilibrio qumico entre dos sistemas implica la igualdad de potenciales qumicos y su uso facilita los clculos.

Demostracin matemtica
Partimos de:

como:

Reemplazando:

Multiplicando por T:

Es decir:

Unidades
Al ser una magnitud extensiva, es decir, que depende de la cantidad de sistema, normalmente se va a referir en unidades de energa por unidad de cantidad de materia. En el Sistema Internacional de Unidades se utiliza el J/mol, aunque tambin se puede utilizar kcal/mol.

Enlaces externos
Ms informacin sobre el equilibrio qumico [1]

Referencias
[1] http:/ / www. netcom. es/ pilar_mu/ equilibrio. htm

Cdigo morse

71

Cdigo morse
El cdigo morse o tambin conocido como alfabeto morse es un sistema de representacin de letras y nmeros mediante seales emitidas de forma intermitente.

Historia
Fue desarrollado por Alfred Vail mientras colaboraba en 1834 con Samuel Morse en la invencin del telgrafo elctrico. Vail cre un mtodo segn el cual cada letra o nmero era transmitido de forma individual con un cdigo consistente en rayas y puntos, es decir, seales telegrficas que se diferencian en el tiempo de duracin de la seal activa. La duracin del punto es la mnima posible. Una raya tiene una duracin de aproximadamente tres veces la del punto. Entre cada par de smbolos de una misma letra existe una ausencia de seal con duracin aproximada a la de un punto. Entre las letras de una misma palabra, la ausencia es de aproximadamente tres puntos. Para la separacin de palabras transmitidas el tiempo es de aproximadamente tres veces el de la raya. Morse reconoci la idoneidad de este sistema y lo patent junto con el telgrafo elctrico. Fue conocido como American Morse Code y fue utilizado en la primera transmisin por telgrafo.
Cdigo Morse, publicacin de 1922.

En sus comienzos, el alfabeto Morse se emple en las lneas telegrficas mediante los tendidos de cable que se fueron instalando. Ms tarde, se utiliz tambin en las transmisiones por radio, sobre todo en el mar y en el aire, hasta que surgieron las emisoras y los receptores de radiodifusin mediante voz. En la actualidad, el alfabeto Morse tiene aplicacin casi exclusiva en el mbito de los radioaficionados, y aunque fue exigido frecuentemente su conocimiento para la obtencin de la licencia de radioperador aficionado hasta el ao 2005, posteriormente, los organismos que conceden esa licencia en todos los pases estn invitados a dispensar del examen de telegrafa a los candidatos. Tambin se utiliza en la aviacin instrumental para sintonizar las estaciones VOR, ILS y NDB. En las cartas de navegacin est indicada la frecuencia junto con una seal Morse que sirve, mediante radio, para confirmar que ha sido sintonizada correctamente.

Cdigo morse

72

Alfabeto Morse
Pulsa en los enlaces para or el sonido.
"SOS", la seal estndar de emergencia, en cdigo morse.

Signo A B C CH D E F G H I J K L M

Cdigo

Signo N O P Q R S T U V W X Y Z

Cdigo

Signo 0 1 2 3 4 5 6 7 8 9 . , ? "

Cdigo !

convenciones: : raya (seal larga) : punto (seal corta) Si se comete un error al transmitir el mensaje en morse, la seal "error" son seis ecos "E" en grupos de dos (../../..) ....--.....---..-...-..

Regla nemotcnica o mnemotcnica


El cdigo Morse es difcil de aprender por lo que, para facilitar su aprendizaje, se suele utilizar una regla mnemotcnica, la cual permite aprendrselo mediante un cdigo consistente en asignar a cada letra una palabra clave determinada, que comienza con la letra que se quiere recordar. Luego basta con sustituir cada vocal de la palabra clave por un punto o una raya segn la siguiente regla: La inicial de la palabra clave es la letra correspondiente. El nmero de vocales que contiene la palabra clave indica la longitud de la codificacin en morse de dicha letra. Si la vocal es una O se sustituye por una raya (-) Si se trata de cualquier otra vocal se sustituye por un punto () Al sustituir slo se tendr en cuenta los puntos y rayas obtenidos hasta la totalidad de la longitud en morse.

Cdigo morse

73

Signo A B C D E F G H I J K L M Z Asno / rbol

Palabra

Cdigo

Signo N O P Q R S T U V W X Y Nota / Noche oopatoso

Palabra

Cdigo

Bonaparte / Bogavante / Bobadilla Coca-Cola / Corazones Docena El / Es Farandola / Fanacoa / Fumarola Gndola Himalaya / Habitante Iris / Isla Jabonoso Kolyno / Koinor Limonada / Limosina Mozo / Mono / Moto Zocoyula

Oporto / Otoo / Ozono Pisotones / Pilotonic / Pelotones Cokoriko / Cocoliso / Cocodrilo Ramona / Revolver Sardina / Sedante Tos nico Ventilador Wadopos / Wagon-Post Xochimilco / Xolifico

Yonitoco / Yotesoplo / Yosimojo / Yoduroso

NOTA: Aunque lo ms acertado es utilizar el alfabeto cdigo internacional.-

Regla mnemotcnica grfica


Otra regla para mejorar el aprendizaje del cdigo morse, recurre a la fuerte presencia que tienen las imgenes de las letras. A fin de ser el recurso que ayuda a la memoria. En las siguientes letras, se han marcado con color los puntos y lneas que corresponden a su respectivo cdigo en morse.

Cdigo morse

74

Referencias Enlaces externos


Wikimedia Commons alberga contenido multimedia sobre Cdigo morseCommons. Traductor cdigo morse (http://elezeta.net/morse/) Just Learn Morse Code (http://justlearnmorsecode.com) - A freeware Koch / Farnsworth Morse code trainer for Windows. Algoritmo conversor de Texto a Cdigo Morse en C++ (http://www.raymondjavaxx.com/articulos/ texto-a-codigo-morse.html) aprender morse en lnea (en ingls) (http://lcwo.net/)

Algoritmo de Huffman
El algoritmo de Huffman es un algoritmo para la construccin de cdigos de Huffman, desarrollado por David A. Huffman en 1952 y descrito en A Method for the Construction of Minimum-Redundancy Codes.[1] Este algoritmo toma un alfabeto de n smbolos, junto con sus frecuencias de aparicin asociadas, y produce un cdigo de Huffman para ese alfabeto y esas frecuencias.

Descripcin
El algoritmo consiste en la creacin de un rbol binario que tiene cada uno de los smbolos por hoja, y construido de tal forma que siguindolo desde la raz a cada una de sus hojas se obtiene el cdigo Huffman asociado. 1. Se crean varios rboles, uno por cada uno de los smbolos del alfabeto, consistiendo cada uno de los rboles en un nodo sin hijos, y etiquetado cada uno con su smbolo asociado y su frecuencia de aparicin. 2. Se toman los dos rboles de menor frecuencia, y se unen creando un nuevo rbol. La etiqueta de la raz ser la suma de las frecuencias de las races de los dos rboles que se unen, y cada uno de estos rboles ser un hijo del nuevo rbol. Tambin se etiquetan las dos ramas del nuevo rbol: con un 0 la de la izquierda, y con un 1 la de la derecha. 3. Se repite el paso 2 hasta que slo quede un rbol. Con este rbol se puede conocer el cdigo asociado a un smbolo, as como obtener el smbolo asociado a un determinado cdigo. Para obtener el cdigo asociado a un smbolo se debe proceder del siguiente modo: 1. 2. 3. 4. 5. 6. Comenzar con un cdigo vaco Iniciar el recorrido del rbol en la hoja asociada al smbolo Comenzar un recorrido del rbol hacia arriba Cada vez que se suba un nivel, aadir al cdigo la etiqueta de la rama que se ha recorrido Tras llegar a la raz, invertir el cdigo El resultado es el cdigo Huffman deseado

Para obtener un smbolo a partir de un cdigo se debe hacer as: 1. Comenzar el recorrido del rbol en la raz de ste 2. Extraer el primer smbolo del cdigo a descodificar 3. Descender por la rama etiquetada con ese smbolo 4. Volver al paso 2 hasta que se llegue a una hoja, que ser el smbolo asociado al cdigo En la prctica, casi siempre se utiliza el rbol para obtener todos los cdigos de una sola vez; luego se guardan en tablas y se descarta el rbol.

Algoritmo de Huffman

75

Ejemplo de uso
La tabla describe el alfabeto a codificar, junto con las frecuencias de sus smbolos. En el grfico se muestra el rbol construido a partir de este alfabeto siguiendo el algoritmo descrito.

rbol para construir el cdigo Huffman del ejemplo.

Smbolo Frecuencia A B C D E F G 0,15 0,30 0,20 0,05 0,15 0,05 0,10

Se puede ver con facilidad cul es el cdigo del smbolo E: subiendo por el rbol se recorren ramas etiquetadas con 1, 1 y 0; por lo tanto, el cdigo es 011. Para obtener el cdigo de D se recorren las ramas 0, 1, 1 y 1, por lo que el cdigo es 1110. La operacin inversa tambin es fcil de realizar: dado el cdigo 10 se recorren desde la raz las ramas 1 y 0, obtenindose el smbolo C. Para descodificar 010 se recorren las ramas 0, 1 y 0, obtenindose el smbolo A.

Algoritmo de Huffman

76

Limitaciones
Para poder utilizar el algoritmo de Huffman es necesario conocer de antemano las frecuencias de aparicin de cada smbolo, y su eficiencia depende de lo prximas a las frecuencias reales que sean las estimadas. Algunas implementaciones del algoritmo de Huffman son adaptativas, actualizando las frecuencias de cada smbolo conforme recorre el texto. La eficiencia de la codificacin de Huffman tambin depende del balance que exista entre los hijos de cada nodo del rbol, siendo ms eficiente conforme menor sea la diferencia de frecuencias entre los dos hijos de cada nodo. Ejemplos: La codificacin binaria es un caso particular de la codificacin de Huffman que ocurre cuando todos los smbolos del alfabeto tienen la misma frecuencia. Se tiene pues que la codificacin binaria es la ms eficiente para cualquier nmero de smbolos equiprobables. El algoritmo de Huffman aplicado sobre un alfabeto de dos smbolos asignar siempre un 1 al primero y un 0 al segundo, independientemente de la frecuencia de aparicin de dichos smbolos. En este caso nunca se realiza compresin de los datos, mientras que otros algoritmos s podran conseguirlo. Una manera de resolver este problema consiste en agrupar los smbolos en palabras antes de ejecutar el algoritmo. Por ejemplo, si se tiene la cadena de longitud 64 AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAB El algoritmo de Huffman aplicado nicamente a los smbolos devuelve el cdigo: 1111111111111111111111111111111111111111111111111111111111111110 Tambin de longitud 64. Sin embargo, si antes de utilizar el algoritmo, se agrupan los smbolos en las palabras "AA", "AB" y "B" (que se codifican como 1, 01 y 00), el algoritmo devuelve la siguiente cadena: 111111111111111111111111111111101 que tiene longitud 32, la mitad que si no se hubiera agrupado. Si observa el rbol de Huffman, se puede comprobar que la diferencia de frecuencias entre las ramas del rbol es menor que en el caso anterior.

Variaciones del algoritmo


Cdigos Huffman n-arios
Es posible crear cdigos de Huffman ternarios, cuaternarios, y, en general, n-arios. Para ello slo es necesario realizar dos modificaciones al algoritmo: 1. Los rboles a crear tendrn tantos hijos como smbolos posibles puedan aparecer en los cdigos Huffman. Por ejemplo, si es ternario se crearn rboles con tres hijos; si es cuaternario, con cuatro. 2. Si se expresa como s el nmero de smbolos en el alfabeto a codificar, y n el nmero de smbolos que aparecen en el cdigo Huffman, entonces s-1 debe ser mltiplo de n-1. Es decir, para un cdigo ternario, s debe valer 3, 5, 7, etc. Si esta condicin no se cumple, entonces se deben aadir smbolos "nulos" con frecuencia 0, que servirn slo como relleno a la hora de construir el rbol.

Algoritmo de Huffman

77

Referencias
[1] A Method for the Construction of Minimum-Redundancy Codes (http:/ / compression. graphicon. ru/ download/ articles/ huff/ huffman_1952_minimum-redundancy-codes. pdf)

Deflacin (algoritmo)
El algoritmo deflacin, en ingls denominado DEFLATE, es un algoritmo de compresin de datos sin prdidas que usa una combinacin del algoritmo LZ77 y la codificacin Huffman. Fue originalmente definido por Phil Katz para la versin 2 de su herramienta de archivado PKZIP, y fue ms tarde especificado como RFC 1951. El algoritmo deflacin est libre de todo tipo de patentes subsistentes, y esto, antes de que expirara la patente de LZW (el cual es usado en el formato de archivo GIF), ha llevado a su popularizacin y su uso en archivos comprimidos bajo gzip y archivos de imagen PNG, adems del formato de compresin ZIP para el cual fue diseado originalmente por Katz. Se puede encontrar cdigo fuente para la compresin y descompresin usando este algoritmo en zlib, la biblioteca de compresin de propsito general, disponible como cdigo abierto. AdvanceCOMP usa una implementacin del algoritmo deflacin que permite recompresin de archivos Gzip, PNG, MNG y ZIP para obtener tamaos de archivo menores que con zlib.

Enlaces externos
RFC 1951, especificacin del formato de compresin versin 1.3. (ingls) Pgina oficial de zlib [1] (ingls)

Referencias
[1] http:/ / zlib. net/

Entropa condicional

78

Entropa condicional
La entropa condicional es una extensin del concepto de entropa de la informacin a procesos donde intervienen varias variables aleatorias no necesariamente independientes.

Definicin
Supngase que es una variable aleatoria sobre un espacio de probabilidad y sea un evento. Si toma valores sobre un conjunto finito , se define de manera natural la entropa condicional de dado como:

De la misma manera si como:

es otra variable aleatoria que toma valores

se define la entropa condicional

Puede interpretarse la anterior magnitud como la incertidumbre de por todos los valores posibles de .

dado un valor particular de

, promediado

Propiedades
Trivialmente se tiene que si e son variables independientes. Dadas dos variables que toman un conjunto finito de valores: Como consecuencia de lo anterior y de que

, se tiene:

Referencia
Bibliografa
Dominic Welsh (1988): Codes and Cryptography, Clarendon Press, Oxford, ISBN 0-19-853287-3

Teorema de Bayes

79

Teorema de Bayes
En la teora de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763[1] que expresa la probabilidad condicional de un evento aleatorio A dado B en trminos de la distribucin de probabilidad condicional del evento B dado A y la distribucin de probabilidad marginal de slo A. En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber -si se tiene algn dato ms-, la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la comprensin de la probabilidad de aspectos causales dados los efectos observados.
Sea probabilidad un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de . Entonces, la viene dada por la expresin:

ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales

donde: son las probabilidades a priori. es la probabilidad de en la hiptesis son las probabilidades a posteriori.

. Thomas Bayes (1763)

Frmula de Bayes
Adems, unido a la definicin de Probabilidad condicionada, obtenemos la Frmula de Bayes, tambin conocida como la Regla de Bayes:

Aplicaciones
El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadstica tradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la evidencia emprica es lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptan con el uso. Como observacin, se tiene y su demostracin resulta trivial.

Teorema de Bayes

80

Enlaces externos
Calculadora en internet [2] Inferencia estadstica segn el modelo bayesiano [3], en la web de la Sociedad Andaluza de Enfermedades Infecciosas [4] Enciclopedia Stanford de filosofa [5] Simulacion del Teorema de Bayes con R-Project [6]

Referencias
[1] * Bayes, Thomas (1763). An Essay towards solving a Problem in the Doctrine of Chances.. Philosophical Transactions of the Royal Society of London 53: pp.370418. doi: 10.1098/rstl.1763.0053 (http:/ / dx. doi. org/ 10. 1098/ rstl. 1763. 0053). [2] http:/ / www. ugr. es/ ~jsalinas/ bayes. htm [3] http:/ / saei. org/ hemero/ epidemiol/ nota3. html [4] http:/ / saei. org [5] http:/ / plato. stanford. edu/ entries/ bayes-theorem/ [6] http:/ / cajael. com/ mestadisticos/ T2Probabilidad/ node10. php

Cifrado (criptografa)
En criptografa un cifrado , es un procedimiento que utilizando un algoritmo (algoritmo de cifrado) con cierta clave (clave de cifrado) transforma un mensaje, sin atender a su estructura lingstica o significado, de tal forma que sea incomprensible o, al menos, difcil de Ejemplo de cifrado utilizando el cifrado Vernam. comprender, a toda persona que no tenga la clave secreta (clave de descifrado) del algoritmo que se usa para poder descifrarlo (algoritmo de descifrado). Por tanto tenemos dos algoritmos (el de cifrado y el de descifrado) y dos claves (clave de cifrado y clave de descifrado). Estas dos claves pueden ser iguales (criptografa simtrica) o no (criptografa asimtrica). El juego de caracteres (alfabeto) usado en el mensaje sin cifrar puede no ser el mismo que el juego de caracteres que se usa en el mensaje cifrado. A veces el texto cifrado se escribe en bloques de igual longitud. A estos bloques se les denomina "grupos". Estos grupos proporcionaban una forma de chequeo adicional ya que el texto cifrado obtenido tena que tener un nmero entero de grupos. Si al cifrar el texto plano no se tiene ese nmero entero de grupos entonces se suele rellenar al final con ceros o con caracteres sin sentido. Aunque el cifrado pueda hacer secreto el contenido de un documento, es necesario complementarlo con otras tcnicas criptogrficas para poder comunicarse de manera segura. Puede ser necesario garantizar la integridad la autenticacin de las partes, etc.

Cifrado (criptografa)

81

Terminologa
En el proceso de cifrado/descifrado se establecen una serie de trminos y convenios para facilitar referirse a los distintos elementos que intervienen: Texto en claro o texto plano (en ingls plain text): El mensaje que se cifra. Criptograma o texto cifrado: El mensaje resultante una vez que se ha producido el cifrado, es decir, el mensaje cifrado. Cifrado: Es el proceso de convertir el texto plano en un galimatas ilegible (cifrar), el mensaje cifrado. Cifrador: Sistema que implementa el algoritmo de cifrado Algoritmo de cifrado o cifra: Es el algoritmo que se utiliza para cifrar. Clave de cifrado: La clave que se utiliza en el algoritmo de cifrado. Descifrado: Es el proceso de convertir el texto cifrado en el texto en claro. Descifrador: Sistema que implementa el algoritmo de cifrado Algoritmo de descifrado o descifra: Es el algoritmo que se utiliza para descifrar. Clave de descifrado: La clave que se utiliza en el algoritmo de descifrado.

Gestin de claves: Es el proceso de generacin, certificacin, distribucin y cancelacin de todas estas claves que son necesarios para realizar el cifrado. Criptosistema: Es el conjunto estructurado de los protocolos, algoritmos de cifrado/descifrado, procesos de 'gestin de claves y actuaciones de los usuarios Descripcin de entidades: Cuando se quiere describir un algoritmo de cifrado/descifrado que involucra el envo de mensajes secretos, muchos autores usan los nombres genricos Alice y Bob en lugar de los crpticos A y B. Si intervienen otras entidades (C, D, F... -la E quedara reservada-) se les asigna nombres que empiecen por estas iniciales, siendo habituales Carol y Dave. Cuando un escenario involucra proteccin frente a atacantes que hacen escuchas, entonces para referirse a ellos se suele usar el nombre Eve (del trmino ingls eavesdropper cuyo significado es fisgn) o bien el nombre de Mallory en caso de que el atacante adems de interceptar la comunicacin tenga la habilidad de alterarla. Con frecuencia a los procesos de cifrado y descifrado se les denomina en la literatura como encriptado y desencriptado, aunque ambos son neologismos errneos anglicismos de los trminos ingleses encrypt y decrypt todava sin reconocimiento acadmico. Pese a la gran difusin de esta terminologa, la mayora de los expertos hispanohablantes prefieren evitar ambos neologismos llegando incluso al punto de que el uso de los mismos puede suponer una leve distincin entre profanos y novatos en la materia y aquellos que han adquirido ms experiencia y profundidad en la misma.

Preprocesado del texto plano


En algunas ocasiones antes de cifrar se realiza un preproceso de adaptacin del texto plano. En este proceso se pueden realizar una serie de pasos que permitan el cifrado y/o hagan el cifrado resultante ms resistente frente a ataques por criptoanlisis. Todos estos cambios se tendrn que tener en cuenta cuando se realice el descifrado para poder obtener el texto plano original. Por ejemplo son frecuentes las siguientes operaciones: Algunos cifradores usan un alfabeto del texto en claro que no se corresponde con el del mensaje que se quiere cifrar. Por tanto es necesario adaptar el mensaje a ese alfabeto. Por ejemplo algunos cifradores usan como alfabeto del texto plano el alfabeto latino. Por tanto si queremos cifrar un texto en espaol es necesario realizar un proceso como resultado del cual no aparezcan los caracteres H, J, , K, U, W y Y (por ejemplo podramos sustituir la U y W por la V, la K con la Q, la por la N, la Y por la I, la J por la G, y con la H simplemente eliminarla). Otro ejemplo clsico sera cifradores que no permiten cifrar minsculas. En este caso habr que pasar todo a maysculas.

Cifrado (criptografa) Para aumentar la calidad del texto cifrado con cierto cifrador, ya sea por su resistencia frente a ataques, extensin o cualquier otra circunstancia, a veces se preprocesa el texto en claro. Algunos ejemplos son: Inclusin de fragmentos que son para despistar y que no tienen significado alguno. Normalmente estos fragmentos son caracteres y se les llama 'caracteres nulos Eliminacin situaciones del texto claro que pueden ser aprovechadas por ataques de criptoanlisis. Por ejemplo: Los espacios en blanco y signos de puntuacin se suelen quitar para (adems de hacer una trasmisin ms eficiente) conseguir que las palabras no se puedan distinguir por los contornos. Esto puede producir ambigedades que se tenan que resolver por el contexto. Las ocurrencias de letras idnticas seguidas, por ejemplo las RR o LL del espaol, en ciertos tipos de cifradores pueden ser aprovechadas por atacantes. Para romper estas secuencias de caracteres iguales se suelen adoptar dos estrategias: Eliminar uno de los caracteres o meter un contenido que no se tiene que interpretar (si es un carcter se le llama carcter nulo). A veces, antes de cifrar, se utiliza un cdigo que dificulta llegar al significado de ciertas palabras o frases especialmente importantes o habituales. Por ejemplo cuando se usa el cifrado de Alberti es habitual realizar una etapa de preprocesado en la que se realizan algunas de estas tcnicas. De hecho el algoritmo est diseado de tal forma que para aprovechar su potencia es necesario el esta etapa de preprocesado.

82

Tipos de cifrado atendiendo a sus claves


Un sistema de cifrado se denomina: simtrico cuando utiliza la misma clave para cifrar y descifrar. asimtrico al usar claves diferentes: una pareja compuesta por una clave pblica , que sirve para cifrar, y por una clave privada , que sirve para descifrar. El punto fundamental sobre el que se sostiene esta descomposicin pblica/privada es la imposibilidad prctica de deducir la clave privada a partir de la clave pblica. Se suele denominar a este tipo de cifrado usando las siglas PKE (del ingls Public-Key Encryption). Los mtodos ms conocidos son el DES, el Triple DES y el AES para la criptografa simtrica, y el RSA para la criptografa asimtrica, llamada tambin criptografa de clave pblica. La utilizacin de un sistema simtrico o asimtrico depende de las tareas a cumplir. La criptografa asimtrica presenta dos ventajas principales: suprime el problema de transmisin segura de la clave, y permite la firma electrnica. No reemplaza sin embargo los sistemas simtricos ya que los tiempos de clculo son claramente ms cortos por los sistemas simtricos que los asimtricos.

Tipos de cifrado atendiendo a sus algoritmos


Segn la forma en la que operan los algoritmos de cifrado o descifrado podemos distinguir varios tipos principales:
[1]

Cifrado en flujo: En estos algoritmos el cifrado se realiza bit a bit. Estn basados en la utilizacin de claves muy largas que son utilizadas tanto para cifrar como para descifrar. Estas claves pueden esta predeterminadas (Libreta de un solo uso) o ser generadas usando un generador de claves pseudoaleatorias o RKG (acrnimo del ingls Random Key Generator) que genera una secuencia binaria pseudoaleatoria a partir de una clave de inicializacin K. A veces en el clculo de la clave pseudoaleatoria tambin interviene el mensaje cifrado hasta ese momento. A parte tenemos el cifrador propiamente dicho. Normalmente en este tipo de algoritmos hay que mantener en secreto tanto la clave como el cifrador

Cifrado por bloques: En este tipo de algoritmos el cifrado se realiza bloque a bloque. En primera instacia se descompone el mensaje en bloques de la misma longitud. A continuacin cada bloque se va convirtiendo en un bloque del mensaje cifrado mediante una secuencia de operaciones . Ejemplos tpicos de operaciones realizadas

Cifrado (criptografa) para conseguir cada mensaje cifrado son la sustitucin y la permutacin de elementos. Este tipo de algoritmos pueden ser tanto de clave simtrica como de clave asimtrica. Sin embargo en la bibliografa suele haber confusin y es frecuente ver casos en que se refieren slo a algoritmos de clave simtrica. En la criptografa clsica los cifrados estaban basados en la sustitucin (Cifrado por sustitucin), en la permutacin (Cifrado por transposicin) o en una combinacin de ambas tcnicas. Normalmente las operaciones se aplicaban a bloques aunque otras veces se aplicaban al texto plano completo. Haba cifrados por transposicin que cambiaba la posicin de caracteres a lo largo de toda la cadena a cifrar. Por ejemplo un cifrado poda consistir en permutar en invertir el orden de los caracteres, dejando el primer carcter en la ltima posicin, el ltimo en la primera posicin, el segundo en penltimo lugar etc.

83

Tipos de cifrado atendiendo a sus propiedades


Muchas veces se agrupan los algoritmos de cifrado en funcin de las propiedades o caractersticas que tienen. Veamos algunos ejemplos: Cifrado seguro hacia adelante Cifrado con umbral Cifrado basado en identidad Cifrado negable Cifrado con clave aislada Cifrado maleable

Referencias
[1] Jos Pastor Franco, Miguel ngel Sarasa Lpez, Jos Luis Salazar Riao,"Criptografa digital: fundamentos y aplicaciones",Ed. Prenseas Universitarias de Zaragoza, 1998

Enlaces externos
The world's first electrnico Enigma machine (http://xoomer.alice.it/www_enigma) ( YouTube video (http:// www.youtube.com/watch?v=5EUYbI1q1y4))

Criptoanlisis

84

Criptoanlisis
El Criptoanlisis (del griego krypts, "escondido" y analein, "desatar") es la parte de la criptologa que se dedica a el estudio de sistemas criptogrficos con el fin de encontrar debilidades en los sistemas y romper su seguridad sin el conocimiento de informacin secreta. En el lenguaje no tcnico, se conoce esta prctica como romper o forzar el cdigo, aunque esta expresin tiene un significado especfico dentro del argot tcnico. A las personas que se dedican al criptoanlisis se llaman criptoanalistas. Los mtodos y tcnicas del criptoanlisis han cambiado drsticamente a travs de la historia de la criptografa, adaptndose a una creciente complejidad criptogrfica. Los sistemas criptogrficos han evolucionado desde los mtodos de lpiz y papel del pasado, pasando por mquinas como Enigma -utilizada por los nazis durante la Segunda Guerra Mundial-, hasta llegar a los sistemas basados en computadoras del presente. Al aumentar la potencia de clculo de los sistemas criptogrficos, tambin los esquemas criptogrficos han ido hacindose ms complejos. A mediados de los aos 70 se invent una nueva clase de criptografa: la criptografa asimtrica. Los mtodos utilizados para romper estos sistemas son por lo general radicalmente diferentes de los anteriores, y usualmente implican resolver un problema cuidadosamente construido en el dominio de la matemtica pura. El ejemplo ms conocido es la factorizacin de enteros. Los resultados del criptoanlisis han cambiado tambin: ya no es posible tener un xito ilimitado al romper un cdigo, y existe una clasificacin jerrquica de lo que constituye un ataque en la prctica.

Objetivo
El objetivo del criptoanlisis es encontrar debilidades en los sistemas criptogrficos que permitan elaborar ataques (ataques criptoanalticos) que rompan su seguridad sin el conocimiento de informacin secreta. Para ello estudia en profundidad el diseo y propiedades de los sistemas criptogrficos. Por ejemplo para un sistema criptogrfico de cifrado un estudio criptoanaltico puede consistir por ejemplo en conseguir la clave secreta o simplemente en acceder al texto en claro sin ni siquiera tener dicha clave. Sin embargo el criptoanlisis no slo se ocupa de los cifrados sino que su mbito es ms general estudiando los sistemas criptogrficos con el objetivo de sortear la seguridad de otros tipos de algoritmos y protocolos criptogrficos. Sin embargo, el criptoanlisis suele excluir ataques que no tengan como objetivo primario los puntos dbiles de la criptografa utilizada; por ejemplo, ataques a la seguridad que se basen en el soborno, la coercin fsica, el robo, el keylogging y dems, aunque estos tipos de ataques son un riesgo creciente para la seguridad informtica, y se estn haciendo gradualmente ms efectivos que el criptoanlisis tradicional.

mbitos de estudio
Para la consecucin de su objetivo, de elaboracin de ataques criptoanalticos que 'rompan' la seguridad de los sistemas criptogrficos, los criptoanalistas estudian los sistemas criptogrficos con el objetivo de descubrir debilidades que se puedan aprovechar. Para ello estudian los sistemas desde distintos enfoques.

Teora de la informacin
La teora de la informacin proporciona herramientas para evaluar la seguridad de los sistemas criptogrficos. Por ejemplo, en los sistemas de cifrado se estudia la entropa de la clave, de los criptogramas y de los mensajes en claro. Como el mensaje en claro suele estar expresado en idiomas humanos, tambin es interesante el estudio de su entropa y en especial su ratio de entropa. Los criptoanalistas tambin estudian el secreto de los sistemas criptogrficos. Por ejemplo, en los sistemas de cifrado estudian el grado de secreto caracterizando aquellos sistemas que tienen secreto perfecto a nivel terico. De su

Criptoanlisis estudio se concluye que el secreto perfecto requiere que el nmero de claves sea al menos tan grande como el nmero de mensajes. Esto es impracticable excepto para los llamados cifradores de libreta de un solo uso. En la prctica la mayor parte de los sistemas tienen claves finitas. Para caracterizar la seguridad de estos sistemas los criptoanalistas han desarrollado el concepto de distancia de unicidad que es el valor mnimo de caracteres cifrados que hacen que slo haya una clave posible que haya sido utilizada para obtener este criptograma. Para ello se aprovecha el concepto de la entropa condicional del conocimiento de la clave una vez conocido el texto cifrado. Para un sistema de cifrado hay dos entropas condicionales interesantes[1] desde el punto de vista del criptoanalista: Para un sistema de cifrado hay una serie de entropas condicionales interesantes[2][3]: Supongamos Un mensaje M1 es sometido a un proceso de cifrado usando la clave K1 obteniendo E(K1,M1)=C1. representan la probabilidad condicional de la clave K dado el criptograma recibido C. A veces tambin se denota por representan la probabilidad condicional del mensaje M dado el criptograma recibido C. A veces

85

tambin se denota por Entonces: Podemos medir la incertidumbre (la entropa) del conocimiento de la clave una vez conocido el texto cifrado, y por tanto medir la equivocacin del mensaje (en ingls message equivocation), , tambin denotada por , mediante la frmula:

La primera igualdad es por la definicin de la entropa condicional y la segunda por aplicacin del teorema de Bayes. Observar que si significa que se podr romper el cifrado pues ya no hay incertidumbre. Esta

anulacin nos introduce en el concepto de distancia de unicidad. Podemos medir la incertidumbre (la entropa) del conocimiento del mensaje una vez conocido el texto cifrado, y por tanto medir la equivocacin de la clave (en ingls key equivocation), , tambin denotada por , mediante la frmula:

La primera igualdad es por la definicin de la entropa condicional y la segunda por aplicacin del teorema de Bayes. Podemos medir la incertidumbre (la entropa) del conocimiento de la clave una vez conocido el texto cifrado y el mensaje en claro, y por tanto medir la equivocacin del aspecto de la clave (en ingls key appearance equivocation), , tambin denotada por , mediante la frmula:

Podemos medir la incertidumbre (la entropa) del conocimiento del mensaje una vez conocido el texto cifrado y la clave, denotado por o por . Dada una clave la relacin entre texto cifrado y texto en claro es uno-a-uno y por tanto Se ha demostrado[4] que se cumple la siguiente relacin entre las distintas entropas: De esta relacin podemos sacar una conclusin[5]: El objetivo de cualquiera que use un cifrador es tener un valor de alto para que el sistema tenga la

mxima fortaleza posible para el caso de que el atacante disponga tanto del texto cifrado como del texto plano

Criptoanlisis (ataque con texto plano conocido). Sin embargo, por la expresin de la ecuacin, para ello es necesario que sea pequeo. Sin embargo, tener un valor pequeo de

86

implica que haya poca incertidumbre respecto al texto

plano una vez conocido el texto cifrado (ataque con slo texto cifrado disponible), lo cual contrario a los intereses de cualquiera que cifre un mensaje. Por tanto es necesario una solucin de compromiso para que el sistema tenga una fortaleza aceptable para ambos tipos de ataque

Base matemtica y potencia de clculo


Por ejemplo, la criptografa asimtrica emplea en problemas matemticos "duros" como base para su seguridad, as que un punto obvio de ataque es desarrollar mtodos para resolver el problema. Los algoritmos asimtricos se disean en torno a la conjeturada dificultad de resolver ciertos problemas matemticos. Si se encuentra un algoritmo mejorado que puede resolver el problema, el criptosistema se ve debilitado. Ejemplos: La seguridad del protocolo Diffie-Hellman depende de la dificultad de calcular un logaritmo discreto. En 1983, Don Coppersmith encontr una manera ms rpida de calcular logaritmos discretos (dentro de ciertos grupos), y por tanto oblig a los criptgrafos a utilizar grupos ms grandes, o diferentes tipos de grupos. La seguridad del protocolo RSA depende parcialmente de la dificultad en la factorizacin de enteros. Por tanto un avance en la factorizacin tendra un impacto claro en la seguridad de RSA. En 1980, se poda factorizar un nmero de 50 dgitos con un coste de 1012 operaciones elementales de computacin. Para 1984 la tecnologa en algoritmos de factorizacin haba avanzado hasta el punto de que se poda factorizar un nmero de 75 dgitos con las mismas 1012 operaciones. Los avances en la tecnologa de computacin tambin han provocado que estas operaciones se puedan realizar en un tiempo mucho menor. La Ley de Moore predice empricamente que las velocidades de computacin continuarn aumentando. Las tcnicas de factorizacin podran mostrar un desarrollo parecido, pero con gran probabilidad dependern de la capacidad y la creatividad de los matemticos, ninguna de las cuales ha sido nunca satisfactoriamente predecible. Nmeros de 150 cifras, como los utilizados en RSA, han sido factorizados. El esfuerzo fue mayor que el mencionado anteriormente, pero no estaba fuera de los lmites razonables para un ordenador moderno. Al comienzo del siglo XXI, los nmeros de 150 cifras ya no se consideran suficientemente grandes como clave para RSA. Nmeros de varios cientos de dgitos se seguan considerando demasiado difciles de factorizar en 2005, aunque los mtodos probablemente continuarn mejorando con el tiempo, obligando a los tamaos de clave a mantener el ritmo de crecimiento o a desarrollar nuevos algoritmos. Otra caraterstica distintiva de los algoritmos asimtricos es que, a diferencia de los ataques sobre criptosistemas simtricos, cualquier criptoanlisis tiene la oportunidad de usar el conocimiento obtenido de la clave pblica.

Ataques criptoanalticos
Los ataques criptoanalticos consisten en la aplicacin de estudios criptoanalticos para explotar las debilidades de sistemas criptogrficos y as 'romper' su seguridad. Los ataques criptoanalticos varan en potencia y en su capacidad de amenaza para los sistemas criptogrficos. Se dice que un ataque explota una "debilidad certificacional" si es un ataque terico que resulta improbable de aplicar en ninguna situacin realista; Muchos de los resultados demostrados en la investigacin criptoanaltica moderna son de este tipo. Cada ataque tiene sus propiedades, las cuales lo caracterizan, y que hacen que ese ataque sea ms o menos realizable. No todos los ataques criptoanalticos tienen como objetivo la ruptura total del sistema. El objetivo de un ataque criptoanaltico es obtener informacin desconocida sobre el sistema criptogrfico de forma que se vaya debilitando su seguridad

Criptoanlisis

87

Clasificacin
Los ataques criptoanalticos se puede clasificar en funcin de sus caractersticas. Clasificacin segn la actitud del atacante Los ataques se pueden clasificar segn la forma de actuar del atacante Ataques pasivos En los ataques pasivos el atacante no altera la comunicacin, slo la escucha o monitoriza, para obtener informacin. Por tanto este tipo de ataques suelen usar tcnicas de escucha de paquetes(sniffing) y de anlisis de trfico . Son difciles de detectar ya que no implican alteracin de los datos. En algunos casos este tipo de ataques se pueden dificultar cifrando la informacin posible objetivo de escuchas. Ataques activos Suponen alguna modificacin del flujo de datos o la creacin de flujos falsos. Hay muchas tcnicas que se usan en este tipo de ataques. Ejemplos: 1. Suplantacin 2. Modificacin de mensajes:Capturar paquetes para luego ser borrados (dropping attacks), manipulados, modificados (tagging attack) o reordenados 3. Reactuacin:Captura de paquetes y retransmisiones 4. Degradacin: Tcnicas para que el servicio se degrade Clasificacin segn el conocimiento previo El criptoanlisis puede realizarse bajo una serie de supuestos sobre cunto puede observarse o descubrirse sobre el sistema en cuestin antes de realizar el ataque. Como un punto de comienzo bsico se supone que, para los propsitos del anlisis, el algoritmo general es conocido; sta es la Mxima de Shannon, "el enemigo conoce el sistema". ste es un supuesto razonable en la prctica - a lo largo de la Historia, hay incontables ejemplos de algoritmos secretos que fueron conocidos mediante el espionaje, la traicin y la ingeniera inversa. (En algunas ocasiones, algunos cdigos han sido reconstruidos mediante la pura deduccin, por ejemplo, el cdigo Lorenz y el cdigo PURPLE, as como una cierta cantidad de cdigos clsicos.) Otros supuestos se pueden categorizar como sigue: Ataque con slo texto cifrado disponible: el criptoanalista slo tiene acceso a una coleccin de textos cifrados o codificados. Ataque con texto plano conocido: el atacante tiene un conjunto de textos cifrados de los que conoce el correspondiente texto plano o descifrado. Ataque con texto plano escogido (ataque con texto cifrado elegido): el atacante puede obtener los textos cifrados (planos) correspondientes a un conjunto arbitrario de textos planos (cifrados) de su propia eleccin. Ataque adaptativo de texto plano escogido: como un ataque de texto plano escogido, pero el atacante puede elegir textos planos subsiguientes basndose en la informacin obtenida de los descifrados anteriormente. Similarmente, existe el ataque adaptativo de texto cifrado escogido. Ataque de clave relacionada: como un ataque de texto plano escogido, pero el atacante puede obtener texto cifrado utilizando dos claves diferentes. Las claves son desconocidas, pero la relacin entre ambas es conocida; por ejemplo, dos claves que difieren en un bit. Estos tipos de ataque difieren evidentemente en la plausibilidad de que ocurran en la prctica. Aunque algunos son ms probables que otros, los criptgrafos suelen adoptar un enfoque conservador y asumir el peor caso imaginable cuando disean algoritmos, razonando que si un sistema es seguro incluso contra amenazas tan poco realistas, entonces debera resistir tambin al criptoanlisis en el mundo real.

Criptoanlisis Los supuestos en los que se basan estos ataques son a menudo ms realistas de lo que podra parecer a primera vista. Para obtener un ataque con texto plano conocido, el criptoanalista podra muy bien conocer o ser capaz de inferir una parte que probablemente forma parte del texto plano, como por ejemplo el encabezamiento de una carta cifrada ("Estimado Sr."), o que el inicio de una sesin de ordenador contenga las letras "LOGIN". Un ataque de texto plano escogido es menos probable, pero en algunos casos puede ser plausible: por ejemplo, si convences a alguien para reenviar un mensaje que t mismo le has mandado antes, pero en forma cifrada. Los ataques de clave relacionada son bsicamente tericos, aunque pueden ser realistas en ciertas situaciones, como por ejemplo al construir funciones hash criptogrficas utilizando un cifrado por bloques. Clasificacin segn el objetivo en criptoanlisis Los resultados de un criptoanlisis tambin pueden variar en utilidad. Por ejemplo, el criptgrafo Lars Knudsen (Knudsen, 1998) clasific varios tipos de ataque sobre cifrados por bloques de acuerdo con la cantidad y la calidad de la informacin secreta que pudiera ser descubierta: Ruptura total - el atacante deduce la clave secreta. Deduccin global - el atacante descubre un algoritmo funcionalmente equivalente para el cifrado y descifrado de mensajes, pero no obtiene la clave. Deduccin local (o de instancia) - el atacante descubre textos planos o cifrados adicionales a los conocidos previamente. Deduccin de informacin - el atacante descubre alguna informacin en el sentido de Shannon que no era conocida previamente. Distincin del algoritmo - el atacante puede distinguir la informacin cifrada de una permutacin al azar. Se pueden aplicar estas categoras a los ataques sobre otros tipos de algoritmos. Clasificacin segn el coste Los ataques se pueden categorizar por la cantidad de recursos que requieren. stos pueden tomar la forma de: Tiempo - el nmero de "operaciones primitivas" que deben ser realizadas. Esta categora es bastante vaga; las operaciones primitivas podran considerarse como instruccin bsica de computacin, como una suma, una operacin XOR, un desplazamiento bit a bit, etc., o como mtodos de cifrado enteros. Memoria - la cantidad de almacenamiento necesario para realizar el ataque. Datos - la cantidad de textos planos y cifrados necesaria. En la criptografa acadmica, una debilidad o una ruptura en un algoritmo se definen de una manera bastante conservadora. Bruce Schneier resume esta posicin de la siguiente manera: "Romper un cifrado simplemente significa encontrar una debilidad en el cifrado que puede ser explotada con una complejidad inferior a la de la fuerza bruta. No importa que la fuerza bruta pudiera requerir 2128 cifrados; un ataque que requiera 2110 cifrados se considerara una ruptura... puesto de una manera simple, una ruptura puede ser tan slo una debilidad certificacional: una evidencia de que el cdigo no es tan bueno como se publicita" (Schneier, 2000).

88

Criptoanlisis

89

Ejemplos
Hay multitud de mtodos de ataque criptoanalticos. stos se pueden clasificar en a si estn especializado en algn tipo de criptografa o si son ms generales. Los principales son los siguientes: Especializados en cifrado clsico: Anlisis de frecuencias Mtodo Kasiski ndice de coincidencia ndice mutuo de coincidencia Especializados en criptografa simtrica: Criptoanlisis diferencial Criptoanlisis lineal Criptoanlisis integral Criptoanlisis estadstico Criptoanlisis de mdulo n Ataque XSL (eXtended Sparse Linearisation) Ataque de deslizamiento Ataque de cumpleaos Ataque Man-in-the-middle Ataque Meet-in-the-middle Ataque de fuerza bruta Jardinera (criptoanlisis) Anlisis de energa

Generales (aplicados en distintos mbitos):

Ordenadores cunticos
Los ordenadores cunticos son potencialmente tiles para el criptoanlisis. Debido a que los estados cunticos pueden existir en una superposicin (es decir, estar entrelazados), es posible un nuevo paradigma computacional, en el que un bit no representa tan slo los estados 0 y 1, sino cualquier combinacin lineal de estos. Peter Shor de los Laboratorios Bell prob la posibilidad, y varios equipos han demostrado uno u otro aspecto de la computacin cuntica en los aos transcurridos desde entonces. Por el momento, slo se ha demostrado una muy limitada prueba de posibles diseos. No hay, a fecha de 2006, una perspectiva creble de un ordenador cuntico real y utilizable. Sin embargo, de construirse un ordenador cuntico, muchas cosas cambiaran. La computacin en paralelo sera probablemente la norma, y varios aspectos de la criptografa cambiaran. En particular, dado que un ordenador cuntico sera capaz de realizar bsquedas de claves mediante fuerza bruta extremadamente rpidas, tamaos de clave considerados hoy en da ms all de los recursos de cualquier atacante por fuerza bruta quedaran al alcance de este ataque. Los tamaos de clave necesarios para quedar ms all de la capacidad de un ordenador cuntico seran considerablemente ms grandes que los actuales. Algunos escritores de divulgacin han declarado que ningn cifrado permanecera seguro de estar disponibles los ordenadores cunticos. Otros aseguran que simplemente aadiendo bits a las longitudes de las claves se evitarn los ataques de fuerza bruta, incluso con ordenadores cunticos. Una segunda posibilidad es que el aumento en capacidad computacional pueda hacer posibles otros ataques de bsqueda de claves, ms all de la simple fuerza bruta, contra uno o varios de los algoritmos actualmente inexpugnables. Por ejemplo, no todo el progreso en la factorizacin de nmeros primos se ha debido a una mejora de los algoritmos. Una parte se debe al incremento del poder computacional de los ordenadores, y la existencia de un ordenador cuntico en funcionamiento podra acelerar considerablemente las tareas de factorizacin. Este aspecto es

Criptoanlisis bastante predecible, aunque no claramente. Lo que no puede ser anticipado es un avance en el campo terico que requiera la computacin cuntica, que pudiera hacer realizables ataques actualmente impracticables o incluso desconocidos. En ausencia de un mtodo para predecir estos avances, slo nos queda esperar. Se desconoce si existe un mtodo de cifrado en tiempo polinmico que requiera un tiempo exponencial para su descifrado, incluso para un ordenador cuntico.

90

Historia del criptoanlisis


El criptoanlisis ha evolucionado conjuntamente con la criptografa, y la competicin entre ambos puede ser rastreada a lo largo de toda la historia de la criptografa. Las claves nuevas se diseaban para reemplazar los esquemas ya rotos, y nuevas tcnicas de criptoanlisis se desarrollaban para abrir las claves mejoradas. En la prctica, se considera a ambas como las dos caras de la misma moneda: para crear un sistema criptogrfico seguro, es necesario tener en cuenta los descubrimientos del criptoanlisis. De hecho, hoy en da se suele invitar a la comunidad cientfica a que trate de romper las nuevas claves criptogrficas, antes de considerar que un sistema es lo suficientemente seguro para su uso.

Criptoanlisis clsico
Aunque la expresin criptoanlisis es relativamente reciente (fue acuada por William F. Friedman en 1920), los mtodos para romper cdigos y cifrados son mucho ms antiguos. La primera explicacin conocida del criptoanlisis se debe al sabio rabe del siglo IX, Yusuf Yaqub ibn Ishaq al-Sabbah Al-Kindi, en su Manuscrito para Descifrar Mensajes Criptogrficos. Este tratado incluye una descripcin del mtodo de anlisis de frecuencias (Ibraham, 1992). El anlisis de frecuencias es la herramienta bsica para romper los cifrados clsicos. En todas las lenguas conocidas, ciertas letras del alfabeto aparecen ms frecuentemente que otras; por ejemplo, en espaol, las vocales son muy frecuentes, ocupando alrededor del 45% Primera pgina de Un manuscrito para el del texto, siendo la E y la A las que aparecen en ms ocasiones, descifrado de mensajes criptogrficos, de mientras que la frecuencia sumada de F, Z, J, X, W y K no alcanza el Al-Kindi. 2%. Igualmente, se pueden reunir estadsticas de aparicin de pares o tros de letras. El anlisis de frecuencias revelar el contenido original si el cifrado utilizado no es capaz de ocultar estas estadsticas. Por ejemplo, en un cifrado de substitucin simple (en el que cada letra es simplemente substituida por otra), la letra ms frecuente en el texto cifrado sera un candidato probable para representar la letra "E". El anlisis de frecuencias se basa tanto en el conocimiento lingstico como en las estadsticas, pero al volverse cada vez ms complicados los cifrados, las matemticas se convirtieron gradualmente en el enfoque predominante en el criptoanlisis. Este cambio fue particularmente evidente durante la Segunda Guerra Mundial, cuando los esfuerzos para romper los cdigos del Eje requirieron nuevos niveles de sofisticacin matemtica. Ms an, la automatizacin fue aplicada por primera vez en la Historia al criptoanlisis, bajo la forma de los dispositivos Bomba y Colossus, una de las primeras computadoras.

Criptoanlisis

91

Criptoanlisis moderno
Aunque la computacin fue utilizada con gran xito durante la Segunda Guerra Mundial, tambin hizo posible nuevos mtodos criptogrficos que eran rdenes de magnitud ms complejos que los empleados hasta la fecha. Tomada como un todo, la criptografa moderna se ha vuelto mucho ms impenetrable al criptoanalista que los mtodos de pluma y papel del pasado, y parece que en la actualidad llevan ventaja sobre los mtodos del puro criptoanlisis. El historiador David Kahn escribi: "Son muchos los criptosistemas en venta hoy por parte de cientos de compaas comerciales que no pueden ser rotos Rplica de un dispositivo Bombe. por ningn mtodo conocido de criptoanlisis. De hecho, en ciertos sistemas incluso un ataque de texto plano escogido, en el que un fragmento de texto plano seleccionado es comparado con su versin cifrada, no permite conocer el cdigo para romper otros mensajes. En cierto sentido, entonces, el criptoanlisis est muerto. Pero ste no es el final de la historia. El criptoanlisis puede estar muerto, pero, mezclando mis metforas, hay ms de un modo de desollar un gato." (Observaciones sobre el 50 Aniversario de la National Security Agency, 1 de noviembre de 2002). Kahn menciona a continuacin las mayores posibilidades para la intercepcin, la colocacin de dispositivos grabadores ("bugging"), los ataques de canal lateral y la criptogtafa cuntica como sustitutos de los mtodos tradicionales del criptoanlisis.[6] Kahn podra haberse apresurado demasiado al declarar al criptoanlisis muerto; an no se han extinguido los cifrados dbiles. En medios acadmicos, se presentan regularmente nuevos diseos, y tambin son rotos frecuentemente: el cifrado por bloques Madryga, de 1984, demostr ser vulnerable a un ataque con slo texto cifrado disponible en 1998; FEAL-4, propuesto como sustituto para el algoritmo estndar de cifrado de datos DES fue demolido por una avalancha de ataques de la comunidad acadmica, muchos de los cuales no eran enteramente realizables en condiciones prcticas. En la industria, igualmente, los cifrados no estn exentos de fallos: por ejemplo, los algoritmos AS/1, AS/2 y CMEA, usados en la industria de telfonos mviles, pueden ser rotos en horas, minutos o incluso en tiempo real por equipo informtico ampliamente disponible. En 2001, se demostr que el algoritmo WEP, utilizado para proteger redes Wi-Fi, es susceptible de ser atacado mediante un ataque de clave relacionada.

Los resultados del criptoanlisis


Los criptoanlisis exitosos han influido sin lugar a dudas en la Historia. La capacidad de leer los pensamientos, supuestamente secretos, o los planes de otros puede ser una ventaja decisiva, y nunca con mayor razn que en tiempos de guerra. Por ejemplo, durante la Primera Guerra Mundial, el descifrado del Telegrama Zimmermann fue capital para la entrada de los Estados Unidos en la guerra. En la Segunda Guerra Mundial, el criptoanlisis de los cdigos alemanes, incluyendo la mquina Enigma y el cdigo Lorenz, ha sido considerado desde un factor que apenas acort la guerra en algunos meses en Europa, hasta un elemento crucial que determin el resultado final (vase ULTRA). Los Estados Unidos tambin se beneficiaron del criptoanlisis del cdigo japons PURPLE durante la contienda (vase MAGIC).

El Telegrama de Zimmerman, descifrado.

Criptoanlisis Todos los gobiernos han sido conscientes desde antiguo de los potenciales beneficios del criptoanlisis para la inteligencia militar, tanto en lo puramente blico como en lo diplomtico, y han establecido con frecuencia organizaciones dedicadas en exclusiva al descifrado de cdigos de otras naciones, por ejemplo GCHQ y NSA, organizaciones americanas todava muy activas hoy en da. En 2004, surgi la noticia de que los Estados Unidos haban roto los cdigos utilizados por Irn: [7]).

92

Enlaces externos
En ingls: Basic Cryptanalysis [8] (los archivos contienen unas cabeceras de 5 lneas que deben ser eliminadas) Distributed Computing Projects [9] Software tools [10] (enlace roto disponible en Internet Archive; vase el historial [11] y la ltima versin [12]). All lot of real encrypted messages on newsgroups [13] Classic Javascript Cryptoanalysis Tools [14] (slo funciona con IE 5 o posterior)

Referencias
Helen Fouch Gaines, "Cryptanalysis", 1939, Dover. ISBN 0-486-20097-3 Abraham Sinkov, Elementary Cryptanalysis: A Mathematical Approach, Mathematical Association of America, 1966. ISBN 0-88385-622-0 Ibraham A. Al-Kindi: The origins of cryptology: The Arab contributions, Cryptologia, 16(2) (April 1992) pp. 97126. David Kahn, "The Codebreakers - The Story of Secret Writing", 1967. ISBN 0-684-83130-9 Lars R. Knudsen: Contemporary Block Ciphers. Lectures on Data Security 1998: 105-126 Bruce Schneier, "Self-Study Course in Block Cipher Cryptanalysis [15]", Cryptologia, 24(1) (January 2000), pp. 1834. Friedrich L. Bauer: "Decrypted Secrets". Springer 2002. ISBN 3-540-42674-4 Friedman, William F., Military Cryptanalysis, Part I, ISBN 0-89412-044-1 Friedman, William F.Military Cryptanalysis, Part II, ISBN 0-89412-064-6 Friedman, William F.Military Cryptanalysis, Part III, Simpler Varieties of Aperiodic Substitution Systems, ISBN 0-89412-196-0 Friedman, William F.Military Cryptanalysis, Part IV, Transposition and Fractionating Systems, ISBN 0-89412-198-7 Friedman, William F. and Lambros D. Callimahos, Military Cryptanalytics, Part I, Volume I, ISBN 0-89412-073-5 Friedman, William F. and Lambros D. Callimahos, Military Cryptanalytics, Part I, Volume II, ISBN 0-89412-074-3 Friedman, William F. and Lambros D. Callimahos, Military Cryptanalytics, Part II, Volume I, ISBN 0-89412-075-1 Friedman, William F. and Lambros D. Callimahos, Military Cryptanalytics, Part II, Volume II, ISBN 0-89412-076-X
[1] "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et all. American Mathematical Societyn 1983 [2] "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et all. American Mathematical Society 1983 [3] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998 [4] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998 [5] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998 [6] http:/ / www. fas. org/ irp/ eprint/ kahn. html [7] http:/ / news. bbc. co. uk/ 1/ hi/ technology/ 3804895. stm

Criptoanlisis
[8] http:/ / www. umich. edu/ ~umich/ fm-34-40-2/ [9] http:/ / distributedcomputing. info/ ap-crypto. html#m4 [10] http:/ / users. castel. nl/ ~groor01/ crack. htm [11] http:/ / web. archive. org/ web/ */ http:/ / users. castel. nl/ ~groor01/ crack. htm [12] http:/ / web. archive. org/ web/ 2/ http:/ / users. castel. nl/ ~groor01/ crack. htm [13] http:/ / groups. google. com/ groups/ search?q=author%3Asmokerman6%40hotmail. com+ OR+ author%3Ascully%40ar. com+ OR+ author%3Aidaho%40microsoft. com+ OR+ author%3Aman%40ar. com+ OR+ author%3Adave%40wanadoo. fr+ OR+ author%3Afdgd%40wanadoo. fr+ OR+ author%3Afortune%40fortune. com& star [14] http:/ / dsv. su. se/ ~icss-abr/ crypto/ [15] http:/ / www. schneier. com/ paper-self-study. html

93

Distancia de unicidad
Para un cifrador la distancia de unicidad, tambin llamada punto de unicidad, es el valor mnimo de caracteres del texto cifrado que se necesitan para reducir a una el nmero de claves posibles y, por tanto, romper el cifrado. Es decir, despus de intentar todas las posibles claves (fuerza bruta del espacio de claves) slo hay una que puede hacer que el descifrado tenga sentido. La distancia de unicidad es posible a causa de la redundacia de los idiomas humanos (puesta de manifiesto cuando se estudia su ratio de entropa). El concepto de distancia de unicidad fue introducido por C. E. Shannon.[1] La distancia de unicidad permite medir el secreto de un cifrador a partir de la cantidad de incertidumbre (entropa) de la clave condicionada por el conocimiento del texto cifrado ( ). Si entonces no hay incertidumbre y el cifrador es tericamente rompible teniendo los suficientes recursos. La distancia de unicidad es la longitud mnima del texto cifrado que se necesita para determinar de forma nica la clave.[2] Un cifrador se dice que es incondicionalmente seguro si largas de texto cifrado.
[3]

nunca se aproxima a 0 incluso para longitudes

De la propia definicin de secreto perfecto se puede concluir que un cifrador que tiene

secreto perfecto no tiene distancia de unicidad y por tanto es incondicionalmente seguro. Shannon usaba el trmino secreto ideal para describir sistemas que no logran el secreto perfecto pero sin embargo no se pueden romper porque no dan suficiente informacin para determinar la clave.[4]

Formalizacin terica
Entropas condicionales interesantes en un sistema de cifrado
Para un sistema de cifrado hay una serie de entropas condicionales interesantes:[5][6] Supongamos Un mensaje M1 es sometido a un proceso de cifrado usando la clave K1 obteniendo E(K1,M1)=C1. representan la probabilidad condicional de la clave K dado el criptograma recibido C. A veces tambin se denota por representan la probabilidad condicional del mensaje M dado el criptograma recibido C. A veces

tambin se denota por Entonces: Podemos medir la incertidumbre (la entropa) del conocimiento de la clave una vez conocido el texto cifrado, y por tanto medir la equivocacin del mensaje (en ingls message equivocation), , tambin denotada por , mediante la frmula:

Distancia de unicidad La primera igualdad es por la definicin de la entropa condicional y la segunda por aplicacin del teorema de Bayes. Observar que si significa que se podr romper el cifrado pues ya no hay incertidumbre. Esta

94

anulacin nos introduce en el concepto de distancia de unicidad. Podemos medir la incertidumbre (la entropa) del conocimiento del mensaje una vez conocido el texto cifrado, y por tanto medir la equivocacin de la clave (en ingls key equivocation), , tambin denotada por , mediante la frmula:

La primera igualdad es por la definicin de la entropa condicional y la segunda por aplicacin del teorema de Bayes. Podemos medir la incertidumbre (la entropa) del conocimiento de la clave una vez conocido el texto cifrado y el mensaje en claro, y por tanto medir la equivocacin del aspecto de la clave (en ingls key appearance equivocation), , tambin denotada por , mediante la frmula:

Podemos medir la incertidumbre (la entropa) del conocimiento del mensaje una vez conocido el texto cifrado y la clave, denotado por o por . Dada una clave la relacin entre texto cifrado y texto en claro es uno-a-uno y por tanto Se ha demostrado[7] que se cumple la siguiente relacin entre las distintas entropas: Esta relacin nos pone de manifiesto un hecho bastante curioso:[8] En general el objetivo de cualquiera que use un cifrador es tener un valor de alto para que el

sistema tenga la mxima fortaleza posible para el caso de que el atacante disponga tanto del texto cifrado como del texto plano (ataque con texto plano conocido). Sin embargo, por la expresin de la ecuacin, para ello es necesario que sea pequeo. Sin embargo, tener un valor pequeo de implica que haya poca incertidumbre respecto al texto plano una vez conocido el texto cifrado (ataque con slo texto cifrado disponible), lo cual es contrario a los intereses de cualquiera que cifre un mensaje. Por tanto es necesario una solucin de compromiso para que el sistema tenga una fortaleza aceptable para ambos tipos de ataque

Considerando la longitud del criptograma


Podemos calcular y para aquellos criptogramas de una cierta longitud N (en el sumatorio slo se y . Otra notacin consideran esos criptogramas).A estos valores son denotados por

alternativa equivalente es y . La distancia de unicidad de un sistema de cifrado, si existe, nos da el valor mnimo valor de N para el cual . Es decir, da el valor mnimo de la longitud del criptograma, N, para la que cierta clave K tiene probabilidad uno y el resto tiene probabilidad 0. Este valor es posible a causa de la redundacia de los idiomas humanos (puesta de manifiesto cuando se estudia su ratio de entropa). Hay que remarcar que aunque la distancia de unicidad da un valor para el cual
[9]

, esto no garantiza

que la clave pueda ser encontrada para cada situacin concebible. Esto slo sucede en media. Esto es debido a los conceptos que se usan en la teora de la informacin, como entropas, ratios, etc.. La distancia de unicidad representa valores medios de smbolos o letras requeridos. Est demostrado[10] que se cumplen las siguientes propiedades:

Distancia de unicidad i) ii)) iii) si si (La equivocacin de la clave es una funcin no creciente de N) (La equivocacin de los A primeros caracteres de el mensaje es

95

una funcin no creciente del nmero N de caracteres interceptados). (Si N caracteres han sido interceptados, la equivocacin de los primeros N caracteres del mensaje es menor o igual que la de la clave). Adems se cumple[11] el siguiente teorema: donde representa la redundancia del texto en claro de longitud N, la cual es la diferencia entre la ). ratio absoluta y la ratio del idioma (

Por tanto acotando a la longitud N y suponiendo que es el nmero de smbolos diferentes del texto en claro y del texto cifrado, obtenemos

De la expresin podemos concluir que la si la redundancia incrementa, la equivocacin media de la clave y por tanto la incertidumbre con respecto de la clave usada decrece. Por tanto la redundancia hace la tarea de encontrar la clave sea ms fcil. Anlogamente, mtodos que reduzcan la redundancia mejoran la seguridad del criptosistema. Otra conclusin que se puede obtener de la ecuacin es que, al ser , , es

decir, la equivocacin de la clave, de forma general, no ser cero y por tanto la clave no podr determinarse de forma inequvoca.

Clculo
El mtodo tradicional para el clculo, normalmente aproximado, de la distancia de unicidad fue el propuesto por Shannon.[12] Posteriormente Hellman extiende las conclusiones de Shannon y propone nuevas tcnicas para estimar la distancia de unicidad. La mayor parte de los cifradores son demasiado complejos para determinar las probabilidades requeridas para obtener la distancia de unicidad. Sin embargo Shannon mostr[13] que es posible aproximarse a el valor para cierto tipo de cifradores usando un modelo de cifrador al que llama cifrador aleatorio. En este cifrador modelo demuestra que el valor aproximado de la distancia de unicidad es el valor de la distancia de unicidad para otros cifradores. Martin Edward Hellman[14] deriv los mismos resultados que Shannon para la distancia de unicidad del cifrador aleatorio pero siguiendo un enfoque un poco diferente. Hellman us un argumento de conteo, para dada una secuencia de smbolos de texto cifrado, encontrar el nmero de claves que podan haber generado esa secuencia particular. Hellman adems muestra que el cifrador aleatorio tiene, entre la clase de los cifradores con el mismo tamao de clave y tamao de texto plano, la mnima distancia de unicidad y por tanto es el caso peor.[15] Beauchemin and Brassard[16]generalizaron los resultados para incluir cifradores con claves y mensajes en claro que siguen distribuciones de probabilidad uniformes (aleatorias).[17] . Aprovechndose de este resultado Shannon estima

Distancia de unicidad Clculo para un cifrador aleatorio Veamos el clculo de la distancia de unicidad para el cifrador aleatorio[18] Cifrador aleatorio Shannon defini un cifrador aleatorio como un sistema de cifrado que satisface las siguientes tres condiciones: i)El nmero de posibles mensajes de longitud N es

96

con

la ratio absoluta con valor

donde A es el cardinal del alfabeto que usa tanto el

texto plano como el texto cifrado. ii) Los posibles mensajes de longitud N pueden ser divididos en dos grupos: Un grupo de los que tienen a priori una probabilidad alta y casi uniforme (los mensajes con significado). Otro grupo con una insignificante probabilidad total. El grupo con alta probabilidad contiene mensajes, con es la

entropa por letra de mensajes de N letras. iii) El proceso de descifrado puede formalizarse como una serie de lneas que relacionan cada criptograma con una serie de textos en claro. Vamos a asumir que hay k claves equiprobables. Por tanto habr k lneas hacia cada criptograma que proceden de una seleccin aleatoria de los posibles mensajes. Clculo Para el cifrador aleatorio, dado un criptograma, la probabilidad de obtener un mensaje con significado al descifrar usando una clave dada es:

donde D es la redundancia del idioma, para mensajes de N caracteres, medida en bits/carcter. Vamos a suponer que podemos aproximar el valor de redundancia del idioma para mensajes de N caracteres, por la redundancia del idioma. La redundancia del idioma es la diferencia entre la ratio absoluta y la ratio del idioma y por tanto se puede expresar con la ecuacin:

Para el cifrador aleatorio, como hay k claves equiprobables entonces el valor de su entropa es por tanto Por tanto: Si H(K)>>ND, entonces hay una gran probabilidad de obtener un criptograma descifrado con significado y entonces una baja probabilidad de determinar la clave y el mensaje correctos. Si H(K)<<ND, entonces tan pronto como se obtenga un criptograma descifrado con significado, entonces tiene casi toda probabilidad de ser el nico correcto. La frontera entre estas dos situaciones est determinada por la cantidad . Entonces, el valor esperado de criptogramas descifrados con significado es:

a la cual se le llama distancia de unicidad. Cuando la informacin de la fuente es baja, slo se requieren un pequeo nmero de smbolos (N) para llegar a la distancia de unicidad. En la prctica esto puede paliar asegurando una mnima informacin para los mensajes, por ejemplo usando un sistema de codificacin.

Distancia de unicidad Clculo para un cifrador por sustitucin monoalfabtica aplicado al idioma ingls Podemos aplicar lo obtenido a un cifrador por sustitucin monoalfabtica aplicado al idioma ingls.[19] Consideremos un cifrado en ingls (alfabeto de 27 letras) cifrado usando una sustitucin monoalfabtica. Si suponemos vlida la aproximacin a la ratio del idioma, H(M)=2, obtenemos los siguientes resultados: bits Estos sistemas tienen 26! posibilidades para la clave. Asumiendo que la incertidumbre para cada clave es la misma, la informacin de cada clave es: bits Por tanto la distancia de unicidad vale aproximadamente 32 ( caracteres). Por tanto, de media se necesitar un criptograma de 32 letras para encontrar la clave correcta. Para el caso del cifrado Cesar H(K)=26 y por tanto (
[20]

97

) es aproximadamente

2. Observar que este resultado no parece plausible ya que ningn cifrador por sustitucin puede ser resuelto con slo 2 caracteres. Hay que tener dos cosas en cuenta: La estimacin que usamos de D=2.7 es aplicable slo para mensajes de longitud razonable. El cifrador es una pobre aproximacin del cifrador aleatorio. Esto es debido a que la mayora de los criptogramas no son producidos por mensajes con significado. Por ejemplo el criptograma QQQQ slo puede ser producido por AAAA,...,ZZZZ. Por tanto los mensajes en claro descifrados no estn uniformemente distribuidos sobre el espacio completo de mensajes. Sin embargo, los cifradores por desplazamiento pueden ser generalmente resueltos con slo unos pocos caracteres del criptograma. Clculo para el DES Consideremos el cifrador DES, el cual cifra bloques de 64 bits usando claves de 56 bits. Al DES se relativamente similar al modelo del cifrador aleatorio. Si suponemos que D=3.2 la distancia de unicidad es: caracteres Si doblamos la clave a 112 bits, la distancia de unicidad aumentar a ms o menos 35 caracteres. Observar que de que la distancia de seguridad para un cifrado de sustitucin genrico sea mayor que el del DES, no se puede inferir que el cifrado de sustitucin sea ms seguro que el DES. Realmente el DES es ms seguro porque no es susceptible a ser roto usando tcnicas de anlisis de frecuencias. Clculo en otros cifradores Deavours[21] estudia la distancia de unicidad en algunos cifradores clsicos.

Limitaciones
Aunque la distancia de unicidad aporta una forma fcil de manejar distintas distribuciones de probabilidad, el parmetro relevante que hay subyacente es la probabilidad de error, es decir, la probabilidad de incorrecta identificacin de la clave que tiene el criptoanalista. Para el estudio de este error se ha desarrollado el concepto de Probabilidad de error de seguridad (en ingls Probability error-security) que normalmente se nota por Pe-seguridad (de ingls Pe-security) y se ha definido la llamada distancia Pe-seguridad.[22][23]
[24]

La distancia Pe-seguridad de un cifrador es la longitud mnima esperada del criptograma, generada por el cifrador, necesaria para obtener el texto plano original con una probabilidad media de error (o probabilidad de identificacin incorrecta media) de al menos Pe

Distancia de unicidad

98

Referencias
[1] [2] [3] [4] [5] C. E. Shannon, "Communication Theory of Secrecy Systems" Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982 Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982 Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982 "Applied cryptology, cryptographic protocols and computer security models", Richard A. DeMillo et all. American Mathematical Society 1983 [6] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998 [7] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998 [8] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998 [9] J.C.A. Lubbe "Basic Methods of Cryptography". Cambridge University Press 1998 [10] C. E. Shannon, "Communication Theory of Secrecy Systems" [11] J.C.A. Lubbe "Basic Methods of Cryptography". Cambridge University Press 1998 [12] C. E. Shannon, "Communication Theory of Secrecy Systems" [13] C. E. Shannon, "Communication Theory of Secrecy Systems" [14] Hellman, M. E., "An extension of the Shannon Theroy Approach to Cryptography". IEEE Trans. on Info. Theory. Vol IT-23 pp. 289-994 May 1977 [15] A. Kh Al Jabri, "The unicity distance: An upper bound on the proability of an eavesdropper successfully estimating the secret key", King Saud University, Arabia Saud 1996 [16] P. Beauchemin and G. Brassard, "A Generalization of Hellman's Extension to Shannons Approach to Cryptography". Journal of Cryptology 1988. [17] A. Kh Al Jabri, "The unicity distance: An upper bound on the proability of an eavesdropper successfully estimating the secret key", King Saud University, Arabia Saud 1996 [18] M. Davio, J., M. Goethals, "Elements of cryptology", Philips Research Laboratory, Brussels [19] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998 [20] Dorothy Elizabeth Robling Denning,"Cryptography and Data Security",Addison-Wesley 1982 [21] Deavours, C. A., "Unicity Points in Cryptanalysis," Cryptologia Vol. 1 (1) pp. 46-68 (Jan. 1977). [22] Johan Van Tilburg, Dick E. Boekee, "The Pe-security distance as a measure of cryptographic performance", Trattement du Signal volume 4 n6 1987 [23] "Basic methods of cryptography", J. C. A. Lubbe,Cambridge University Press 1998 [24] Johan Van Tilburg, Dick E. Boekee, "The Pe-security distance as a measure of cryptographic performance", Trattement du Signal volume 4 n6 1987

Ratio de entropa

99

Ratio de entropa
La ratio de entropa de una secuencia de n variables aleatorias (proceso estocstico) caracteriza la tasa de crecimiento de la entropa de la secuencia con el crecimiento de n. La tasa de entropa de un proceso estocstico viene definida por la ecuacin:

siempre que dicho lmite exista. Una cantidad relacionada con la ratio de entropa ( H(X) ) es:

cuando dicho lmite existe. H'(X) mide la entropa condicional de la ltima variable aleatoria en funcin de todas las anteriores. Para proceso estocsticos estacionarios se cumple H(X)=H'(X)

Ejemplos
Consideremos el caso de una mquina de escribir que tiene m teclas con igual probabilidad de ser tecleada. Podemos decir que y por tanto . Podemos generalizar, si es un proceso estocstico con variables aleatorias independientes e idnticamente distribuida. Entonces:

Supongamos un proceso estocstico con variables aleatorias independientes pero no idnticamente distribuidas. Por tanto:

Sin embargo depende de la distribucin de las variables aleatorias que exista, o no, el lmite y por tanto la tasa de entropa. Por ejemplo si definimos una secuencia binaria aleatoria en la que no es constante sino una funcin de i de la forma si si para k=0,1,2... Entonces H(X) no est definida para este proceso.

Ratio de un idioma
Un idioma o lengua, es un sistema de comunicacin verbal o gestual propio de una comunidad humana. Podemos observar que en los idiomas existen letras, conjuntos de letras y palabra ms comunes que otras. La gramtica del idioma tambin restringe qu palabras y en que orden se pueden encontrar. Adems el resto del mensaje (el contexto) tambin afecta a la probabilidad de aparicin de una palabra. Por ejemplo si estamos en un contexto judicial y aparecen las letras "im", podemos determinar que la palabra "impugnar" es ms probable que la palabra "imbcil". En este caso podramos decir que hay una probabilidad de las palabras condicionada por el contexto (resto de palabras). Por tanto podemos decir que los idiomas son 'ineficientes', es decir, contienen mucha redundancia. No sera necesario usar todos los smbolos que usamos para expresar algo. Por ejemplo si queremos transmitir el mensaje "This is a suny day" podramos usar la expresin "This is a suny dy" de forma que el receptor nos entendera igual.[1]

Ratio de entropa Esta es el fundamento en el que se basa el uso habitual de un montn de abreviaturas cuando la gente se comunica con SMSs. Podemos considerar un idioma como un proceso estocstico de variables aleatorias donde cada una tiene

100

como valor un smbolo del lenguaje. Debido a las caractersticas vistas de los lenguajes, y usando la entropa condicionada, podemos decir: Definimos la ratio de entropa de un idioma (vamos a denotar por R), tambin llamada simplemente ratio del idioma, como la ratio de entropa del proceso:

Es decir, la ratio de entropa de un idioma es el lmite de la entropa de un ejemplo de texto en el idioma, cuando la longitud del texto se hace muy grande. La ratio de un idioma la podemos interpretar como la cantidad de informacin que contiene cada letra de nuestro alfabeto. En otras palabras, si un alfabeto consta de L elementos, existirn mensajes posibles de longitud N. Sin embargo como los mensajes son redundante slo obtendremos (con r la ratio del idioma) mensajes que tengan sentido ) de un idioma a el valor mximo que puede tener la ratio de un Para el castellano se estima que el ratio est entre 1.2 y 1.5. Para el ingls se estima en torno al 1.3. Se llama ratio absoluta (vamos a denotar por idioma. Es decir si tenemos un idioma con n smbolos la ratio mxima del idioma ser aquel en el que todos los smbolos son equiprobables e independientes. Por tanto . Este valor identiica el mximo nmero de bits que pueden ser codificados con cada carcter (smbolo) asumiendo que cada carcter de la secuencia es equiprobable. Se llama redundancia de un idioma (vamos a denotar por ) a la diferencia entre la ratio absoluta y la ratio de un idioma. Por tanto Dado que la redundancia y . Este valor muestra cuanto puede ser reducido la longitud de un texto en un nos indica el nmero de bits extra usados para codificar un mensaje (bits redundantes) idioma sin perder ninguna informacin. es el nmero de bits para codificar un alfabeto de n smbolos letra a letra, entonces la relacin como porcentaje de redundancia

expresar porcentualmente que tan redundante es el lenguaje utilizado. Para el castellano tenemos

Mtodos de clculo
Se han usado distintos mtodos para aproximarse al valor de la ratio de entropa de un idioma. Estos mtodos se han aplicado habitualmente al idioma ingls pero, en general, esos mtodos son aplicables a cualquier otro idioma obteniendo su propio valor aproximado. Vamos a ver los mtodos propuestos ms importantes y cuales han sido los resultados para el idioma ingls. El idioma ingls se suele considerar formado por un alfabeto de 27 smbolos (26 letras ms el espacio en blanco). Aproximacin sucesiva Shannon[2] describi un mtodo para aproximarnos al clculo de la ratio de un idioma basndose en el estudio de los n-gramas. Para ello Shannon propone una serie de lenguajes artificiales que convergen con el idioma y que van aproximndose cada vez ms a l. En cada paso se van cogiendo ms caractersticas del idioma parecindose cada vez ms a l y por tanto la incertidumbre de cada smbolo, condicionada por el conocimiento de los anteriores, se va reduciendo. De esta forma va acotando paulatinamente la ratio del idioma. La serie de lenguajes artificiales que propone son los siguientes: Aproximacin de smbolos orden 0. En esta aproximacin todos lo smbolos son equiprobables e independientes. Por tanto el valor de ratio del idioma ser igual a la ratio absoluta e igual a y por tanto 4.76.

Ratio de entropa Aproximacin de smbolos de orden 1. En esta aproximacin tenemos smbolos independientes pero cada smbolo tendr la misma probabilidad que el smbolo tiene en el idioma que se est trabajando, en este caso el ingls. El valor de la ratio de este lenguaje se ha calculado y es aproximadamente 4.03 Aproximacin de smbolos de orden 2. Es similar a la aproximacin de orden 1 pero en lugar de aplicar la frecuencia de los smbolos se aplica la frecuencia de los digramas (secuencias de 2 smbolos) en el idioma. Es decir, dado un smbolo se calcula la probabilidad del siguiente en funcin de la probabilidad de los digramas que forma con el smbolo anterior. El valor de la ratio de este lenguaje se ha calculado y es aproximadamente 3.9 Aproximacin de smbolos de orden 3. Es similar a la aproximacin de orden 2 pero en lugar de aplicar la frecuencia de los digramas se aplica la frecuencia de los trigramas (secuencias de 3 smbolos) en el idioma. Es decir, dado un smbolo se calcula la probabilidad del siguiente en funcin de la probabilidad de los trigramas que forma con los dos smbolo anteriores. Aproximacin de smbolos de orden 4. Es similar a la aproximacin de orden 3 pero en lugar de aplicar la frecuencia de los trigramas se aplica la frecuencia de los tetragramas (secuencias de 4 smbolos) en el idioma. Es decir, dado un smbolo se calcula la probabilidad del siguiente en funcin de la probabilidad de los tetragramas que forma con los tres smbolo anteriores. Esta aproximacin no fue propuesta por el documento original de Shannon. El valor de la ratio de este lenguaje se ha calculado y es aproximadamente 2.8 Aproximacin de palabras de orden 1. Se escogen palabras del ingls y la frecuencia de cada una es la que tiene cada palabra en el idioma. Aproximacin de palabras de orden 2. Se usa las probabilidades de transicin entre palabras del idioma. Sin embargo no se incluye ninguna otra probabilidad en la estructura. Sin embargo estos valores slo sirven para acotar ya que no capturan toda la estructura del idioma, slo capturan una parte (aunque cada vez ms importante). La aplicacin de esta tcnica de acotacin se puede extender para acotar la ratio de entropia de otros tipos de fuentes de informacin. Por ejemplo, podramos aplicarla a los distintos mtodos de codificacin de imgenes. Estimacin mediante el juego de adivinacin de Shannon Este mtodo de estimacin fue realizado por Shannon en 1950[3] obteniendo un valor de 1.3. El mtodo consiste en coger un ejemplo de texto suficientemente largo y preguntar sucesivamente a un humano que adivine la prxima letra. Si un sujeto contesta con un smbolo x podemos interpretar que el sujetoo estima que el smbolo x es el ms probable en el contexto que est analizando. Si fallara contestara con el siguiente ms probable y as sucesivamente. El experimentador guarda el nmero de intentos necesitados para calcular cada siguiente carcter. Con los datos obtenidos se puede calcular la distribucin emprica de la frecuencia del nmero de adivinaciones requeridas para calcular el siguiente carcter. Muchas letras requerirn slo un intento, sin embargo otras sern ms difciles (por ejemplo las iniciales de palabras o frases). Usando este mtodo con distintos textos independientes podemos hacer una estimacin de la ratio del idioma ya que podemos conjeturar que la entropa de las secuencia a adivinar es la entropa del idioma. Por tanto la entropa de la secuencia a adivinar est vinculada con la entropa del histograma construido contabilizando los intentos en el experimento.

101

Ratio de entropa Estimacin mediante apuestas En este enfoque hacemos que un sujeto humano apueste sobre la prxima letra de un texto en ingls. Esto permite ser ms finos en la gradacin de los juicios sobre la adivinacin de la prxima letra. En este caso, la eleccin ptima es proporcional a la probabilidad condicional de la prxima letra. Como tenemos 27 smbolos entonces se pagar con la proporcin 27 a 1 si se elige la letra correcta. La apuesta de forma secuencial es equivalente a apostar sobre la secuencia completa. Por tanto la apuesta despus de n letras puede ser escrita como:

102

donde

) es la fraccin de la ganancia del apostante en la secuencia.

Si asumimos que el sujeto conoce la distribucin de probabilidad subyacente podemos estimar que:

siendo

la entropa. A partir de ah se puede estimar la ratio de entropa

En un experimento[4] con 12 sujetos con un texto de 75 letras devolvi una estimacin de 1.34 como ratio del idioma ingls.

Referencias
Thomas M. Cover, Joy A. Thomas,"Elements of Information Theory", John Wiley & Sons. Second Edition 2006 Jorge Rami Aguirre, Aplicaciones criptogrficas. Libro gua de la asignatura de Seguridad Informtica. Escuela Universitaria de Informtica. Universidad Politcnica de Madrid. Enero 1998.
[1] Denis Trek,"Managing information systems security and privacy", Springer-Verlag Berling Heidelberg 1996 [2] C. E. Shannon,"A Mathematical Theory of Communication",The Bell System Technical Journal Vol 27 pp. 379423, 623656, July, October, 1948 [3] C. E. Shannon, "Prediction and entropy of printed English". Bell Syst. Tech. J., 30:5064, Enero 1951 [4] T. M. Cover and R. King. A convergent gambling estimate of the entropy of English. IEEE Trans. Inf. Theory, IT-24:413421, 1978.

Proceso estocstico

103

Proceso estocstico
En estadstica, y especficamente en la teora de la probabilidad, un proceso estocstico es un concepto matemtico que sirve para caracterizar una sucesin de variables aleatorias (estocsticas) que evolucionan en funcin de otra variable, generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia funcin de distribucin de probabilidad y, entre ellas, pueden estar correlacionadas o no. Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios constituye un proceso estocstico.

El ndice de la bolsa es un ejemplo de proceso estocstico de tipo no estacionario (por eso no se puede predecir).

Ejemplos
Los siguientes son ejemplos dentro del amplio grupo de las series temporales: Seales de telecomunicacin Seales biomdicas (electrocardiograma, encefalograma, etc.) Seales ssmicas El nmero de manchas solares ao tras ao El ndice de la bolsa segundo a segundo La evolucin de la poblacin de un municipio ao tras ao El tiempo de espera en cola de cada uno de los usuarios que van llegando a una ventanilla El clima es un gigantesco cmulo de procesos estocsticos interrelacionados (velocidad del viento, humedad del aire, etc) que evolucionan en el espacio y en el tiempo. Los procesos estocsticos de orden mayor a uno, como el caso de una serie de tiempo de orden 2 y una correlacin de cero con las dems observaciones. En los procesos estocsticos se pueden usar las matrices para definir el nmero de evento, ya que no necesitan la historia para "predecir", sino de los hechos que estn presentes se "predice" un comportamiento cadenas de Markov.[1]

Definicin matemtica
Un proceso estocstico se puede definir equivalentemente de dos formas diferentes: Como un conjunto de realizaciones temporales y un ndice aleatorio que selecciona una de ellas. Como un conjunto de variables aleatorias indexadas por un ndice , dado que , con . puede ser continuo si es un intervalo (el nmero de sus valores es ilimitado) o discreto si es numerable (solamente puede asumir determinados valores). Las variables aleatorias denomina espacio probabilstico. Sea se observa un suceso compuesto formado por sucesos elementales , de manera que suceso le corresponde un valor de una variable aleatoria . . A cada , de manera que es funcin de : : toman valores en un conjunto que se un espacio probabilstico. En una muestra aleatoria de tamao

El suceso compuesto es un subconjunto contenido en el espacio muestral y es un lgebra de Boole

Proceso estocstico

104

El dominio de esta funcin o sea el campo de variabilidad del suceso elemental, es el espacio muestral, y su recorrido, o sea el de la variable aleatoria, es el campo de los nmeros reales. Se llama proceso aleatorio al valor en de un elemento , donde para todo es una variable aleatoria del valor en . en un momento
[2]

Si se observa el suceso

de tiempo: .

define as un proceso estocstico. Si

es una filtracin,[3] se llama proceso aleatorio adaptado, al valor en , donde es una variable aleatoria -medible del valor en . se llama la trayectoria asociada al suceso

, de un elemento . La funcin

Casos especiales
Proceso estacionario: Un proceso es estacionario en sentido estricto si la funcin de distribucin conjunta de cualquier subconjunto de variables es constante respecto a un desplazamiento en el tiempo. Se dice que un proceso es estacionario en sentido amplio (o dbilmente estacionario) cuando se verifica que: 1. La media terica es independiente del tiempo; y 2. Las autocovarianzas de orden s slo vienen afectadas por el lapso de tiempo transcurrido entre los dos periodos y no dependen del tiempo. Proceso homogneo: variables aleatorias independientes e idnticamente distribuidas Proceso de Mrkov: Aquellos procesos discretos en que la evolucin slo depende del estado actual y no de los anteriores. Proceso de Gauss: Proceso continuo en el que toda combinacin lineal de variables es una variable de distribucin normal. Proceso de Poisson Proceso de Gauss-Mrkov: Son procesos, al mismo tiempo, de Gauss y de Mrkov Proceso de Bernoulli Son procesos discretos con una distribucin binomial.

Referencias
[1] Ms informacin en "Elementos de Econometra de los Fenmenos Dinmicos", Alberto Landro, Ediciones Cooperativas, Buenos Aires 2009 [2] Dagum, Camilo y Estela M. Bee de Dagum(1971) Introduccin a la Econometra: 79-83. Mxico: Siglo XXI editores, stima edicin, 1980. [3] Se llama "filtracin" a una sucesin {B (t), t T}de sub--lgebras tal que B (t) est incluida en B (r) si r <t.

Distribucin de probabilidad

105

Distribucin de probabilidad
En teora de la probabilidad y estadstica, la distribucin de probabilidad de una variable aleatoria es una funcin que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribucin de probabilidad est definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria.

La distribucin Normal suele conocerse como la "campana de Gauss".

La distribucin de probabilidad est completamente especificada por la funcin de distribucin, cuyo valor en cada real x es la probabilidad de que la variable aleatoria sea menor o igual que x.

Definicin de funcin de distribucin


Dada una variable aleatoria , su funcin de distribucin, , es

Por simplicidad, cuando no hay lugar a confusin, suele omitirse el subndice Donde en la frmula anterior:

y se escribe, simplemente,

, es la probabilidad definida sobre un espacio de probabilidad y una una medida unitaria sobre el espacio muestral. es la medida sobre la -lgebra de conjuntos asociada al espacio de probabilidad. es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre el que se define el espacio de probabilidad en cuestin. es la variable aleatoria en cuestin, es decir, una funcin definda sobre el espacio muestral a los nmeros reales.

Propiedades
Como consecuencia casi inmediata de la definicin, la funcin de distribucin: Es una funcin continua por la derecha. Es una funcin montona no decreciente. Adems, cumple

Para dos nmeros reales cualesquiera

tal que

, los sucesos

son

mutuamente excluyentes y su unin es el suceso

, por lo que tenemos entonces que:

Distribucin de probabilidad y finalmente

106

Por lo tanto una vez conocida la funcin de distribucin

para todos los valores de la variable aleatoria

conoceremos completamente la distribucin de probabilidad de la variable. Para realizar clculos es ms cmodo conocer la distribucin de probabilidad, y sin embargo para ver una representacin grfica de la probabilidad es ms prctico el uso de la funcin de densidad.

Distribuciones de variable discreta


Se denomina distribucin de variable discreta a aquella cuya funcin de probabilidad slo toma valores positivos en un conjunto de valores de finito o infinito numerable. A dicha funcin se le llama funcin de masa de probabilidad. En este caso la distribucin de probabilidad es la suma de la funcin de masa, por lo que tenemos entonces que:

Y, tal como corresponde a la definicin de distribucin de probabilidad, esta expresin representa la suma de todas las probabilidades desde hasta el valor .
Grfica de distribucin binomial.

Distribuciones de variable discreta ms importantes


Las distribuciones de variable discreta ms importantes son las siguientes: Distribucin binomial Distribucin binomial negativa Distribucin Poisson Distribucin geomtrica Distribucin hipergeomtrica Distribucin de Bernoulli Distribucin Rademacher, que toma el valor 1 con probabilidad y el valor -1 con probabilidad . Distribucin uniforme discreta, donde todos los elementos de un conjunto finito son equiprobables.

Distribuciones de variable continua

Distribucin de probabilidad

107

Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores existentes dentro de un intervalo. En el caso de variable continua la distribucin de probabilidad es la integral de la funcin de densidad, por lo que tenemos entonces que:

Distribuciones de variable continua ms importantes


Las distribuciones de variable continua ms importantes son las siguientes: Distribucin ji cuadrado Distribucin exponencial Distribucin t de Student Distribucin normal Distribucin Gamma Distribucin Beta Distribucin F Distribucin uniforme (continua) Distribucin de Weibull Distribucin de Pareto
Distribucin normal.

Enlaces externos
Wikimedia Commons alberga contenido multimedia sobre Distribuciones de probabilidad. Commons Wikilibros: Estadstica

Aleatoriedad

108

Aleatoriedad
La aleatoriedad se asocia a todo proceso cuyo resultado no es previsible ms que en razn de la intervencin del azar. El resultado de todo suceso aleatorio no puede determinarse en ningn caso antes de que este se produzca. El estudio de los fenmenos aleatorios queda dentro del mbito de la teora de la probabilidad y, en un marco ms amplio, en el de la estadstica. La palabra aleatorio se usa para expresar una aparente carencia de propsito, causa, u orden. El trmino aleatoriedad se usa a menudo como sinnimo con un nmero de propiedades estadsticas medibles, tales como la carencia de tendencias o correlacin. La aleatoriedad ocupa un lugar importante en la ciencia y la filosofa.
Puntos esparcidos aleatoriamente sobre un plano bidimensional. Sus puntos ms cercanos estn resaltados en rojo.

Historia

La especie humana se ha preocupado de la aleatoriedad desde tiempos prehistricos, la mayora a travs de la adivinacin (al leer mensajes siguiendo patrones aleatorios) y los juegos. La oposicin entre el libre albedro y el determinismo ha sido una cuestin divisiva en la filosofa y la teologa. A pesar de la prevalencia de los juegos en todas las pocas y culturas, por un largo perodo hubo una cierta investigacin occidental sobre el tema, posiblemente debido a la desaprobacin que la Iglesia Catlica mantena en cuestiones de juegos y la adivinacin. Si bien Gerolamo Cardano y Galileo escribieron sobre los juegos de azar, fueron Blaise Pascal, Pierre de Fermat y Christiaan Huygens quienes nos condujeron a lo que hoy se conoce como teora de probabilidad. Los matemticos se centraron primero en aleatoriedad estadstica y consideraron frecuencias de bloque (es decir, no solo las frecuencias de ocurrencias de elementos individuales, si no tambin bloques de longitudes arbitrarias) como la medida de la aleatoriedad, un acercamiento que se prolongar hacia la entropa de la informacin en la teora de la informacin. A principios de los aos 60, Gregory Chaitin, Andri Kolmogrov y Ray Solomonoff introdujeron la nocin de aleatoriedad algortmica, en la cual la aleatoriedad de una secuencia depende de si es posible comprimirla.

Aleatoriedad en la ciencia
En la investigacin cientfica la aleatoriedad es estudiada por la estadstica y la teora de la probabilidad.

Experimento aleatorio
En Teora de la probabilidad un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, es decir, no se puede predecir o reproducir el resultado exacto de cada experiencia particular. (Ej: Lanzamiento de un dado). Este tipo de fenmeno es opuesto al fenmeno determinista, en el que conocer todos los factores de un experimento nos hace predecir exactamente el resultado del mismo. Por ejemplo, conociendo la altura desde la que se arroja un mvil es posible saber exactamente el tiempo que tardar en llegar al suelo en condiciones de vaco. Sin embargo una coleccin de eventos estadsticos, puede ser tratada como un fenmeno determinista en estadstica. Por ejemplo lanzando un dado de seis caras seicientas veces, el resultado para cada una de las caras del mismo ser aproximadamente cien.

Aleatoriedad

109

Aleatoriedad en la filosofa y la religin


Hay que notar que la predisposicin a creer que "todo tiene un propsito o una causa" est de hecho implcita en la expresin "aparente carencia de propsito o causa". Los humanos estn siempre buscando patrones en su experiencia, y el patrn ms bsico parece ser el patrn causa-efecto. Esto parece embebido en el cerebro humano, y quizs en otros animales tambin. Por ejemplo, los perros y los gatos a menudo muestran establecer aparentemente una conexin de causa y efecto que nos parece divertida o peculiar, como puede ser la situacin por la cual un perro que, despus de visitar al veterinario cuya clnica tenga los suelos embaldosados de un azulejo concreto, rechace a partir de entonces acercarse a esa clase de suelos, estando o no en la clnica veterinaria. Es debido a esta tendencia que la ausencia de una causa parece problemtica. Ver causalidad. Para resolver este problema, a veces se dice que los eventos aleatorios son causados por azar. Ms que resolver el problema de la aleatoriedad, esto abre el enorme hueco de definir el azar. Es difcil evadir la circularidad al definir el azar en trminos de aleatoriedad. Aleatoriedad contra Impredecibilidad Algunos discuten que la aleatoriedad no debe confundirse con la impredecibilidad prctica, la cual es una idea que est relacionada con el uso ordinario. Algunos sistemas matemticos, por ejemplo, pueden verse como aleatorios; sin embargo son de hecho impredecibles. Esto se debe a una dependencia sensible de las condiciones iniciales. Muchos fenmenos aleatorios pueden exhibir caractersticas organizadas a algunos niveles. Por ejemplo, mientras la media porcentual del incremento de la poblacin humana es bastante predecible, en trminos sencillos, el intervalo real de los nacimientos y muertes individuales no se pueden predecir. Esta aleatoriedad a pequea escala se encuentra en casi todos los sistemas del mundo real. La ley de Ohm y la teora cintica de los gases son estadsticamente descripciones reales de clculos (por ejemplo, el resultado neto o la integracin) de vastas cantidades de nmeros de eventos individuales atmicos, cada uno de los cuales son aleatorios, y ninguno de ellos son individualmente predecibles. Los sistemas caticos son impredecibles en la prctica debido a su extrema dependencia de las condiciones iniciales. Si son o no impredecibles en trminos de la teora de la computabilidad es objeto de actuales investigaciones. Al menos en algunas disciplinas la teora de la computabilidad, la nocin de la aleatoriedad termina siendo identificada con impredecibilidad computacional. Se requiere la impredecibilidad en algunas aplicaciones, tales como los mltiples usos de los nmeros aleatorios en la criptografa. En otras aplicaciones, como el modelado o la simulacin, la aleatoriedad estadstica es esencial, pero la predictibilidad tambin sirve de ayuda (por ejemplo, cuando se ejecutan repetidamente simulaciones o pruebas de reconocimiento, puede ser muy til poder volver a ejecutar el modelo con la entrada aleatoria exacta numerosas veces). Lidiar sensiblemente con la aleatoriedad es un problema duro para la ciencia moderna, las matemticas, la psicologa y la filosofa. Meramente definirlo adecuadamente, para los propsitos de una disciplina es dificultoso. Distinguiendo entre aparente aleatoriedad y la verdadera no ha sido ms sencillo. En adicin, asegurar imprevisibilidad, especialmente contra una grupo bien motivado, ha sido ms difcil an. Algunos filsofos han discutido que no hay aleatoriedad en el universo, solo imprevisibilidad. Otros encuentran la distincin sin sentido (ver determinismo para ms informacin).

Aleatoriedad

110

Aleatoriedad y religin
Algunos telogos han intentado resolver la aparente contradiccin entre la deidad omnisciente, o el libre albedro usando aleatoriedad. Los discordianistas tiene una fuerte creencia en ella y en la impredecibilidad. 1

Aplicaciones y usos de la aleatoriedad


Los nmeros aleatorios fueron investigados primero en el contexto de las apuestas, y muchos dispositivos aleatorizados tales como los dados, las cartas, y las ruletas, fueron primero desarrollados para ser usados en apuestas. La habilidad de producir justamente nmeros aleatorios es vital a la apuesta electrnica, y como tal, los mtodos usados para crearlas son usualmente regulador por las Juntas de Control de Juego gubernamentales. Los nmeros aleatorios son tambin usados para otros propsitos, donde sus uso es matemticamente importante, tal como muestras de urnas de opinin, y en situaciones donde la "equidad" es aproximada por aleatorizacin, tal como seleccionar jurados. Soluciones computacionales para algunos tipos de problemas usan extensivamente nmeros aleatorios, tal como en el mtodo de Montecarlo y en algoritmos genticos.

Generando Aleatoriedad
En su libro "Una nueva forma de ciencia", Stephen Wolfram describe tres mecanismos responsables de (aparentemente) conducta aleatoria en los sistemas: 1. Aleatoriedad viniendo del entorno (por ejemplo, movimiento browniano, pero tambin hardware generador de nmeros aleatorios). 2. Aleatoriedad viniendo de las condiciones iniciales. Este aspecto es estudiado por la Teora del Caos, y es observado en sistemas cuyo comportamiento es muy sensitivo a pequeas variaciones en dicha condiciones iniciales (tales como las mquinas de pachinko, dados...). 3. Aleatoriedad intrnsecamente generada por el sistema. sta es tambin llamada secuencia pseudoaleatoria, y es el tipo usado en los generadores de nmeros pseudoaleatorios. Hay muchos algoritmos (basados en aritmtica o autmatas celulares) para generar nmeros pseudoaleatorios. El comportamiento del sistema puede ser determinado sabiendo el estado de la semilla y el algoritmo usado. Este mtodo es ms rpido que obtener "verdadera" aleatoriedad del entorno. Las muchas aplicaciones de la aleatoriedad han llevado a muchos mtodos diferentes para generar datos aleatorios. Estos mtodos pueden variar depende de cun impredecible o estadsticamente aleatorios son, y cun rpido pueden generar nmeros aleatorios. Antes del avance de los generadores computacionales de nmeros aleatorios, generar grandes cantidades de nmeros suficientemente aleatorios (importante en estadstica) requera mucho trabajo. Los resultados podan ser algunas veces ser colectados y distribuidos como tablas de nmeros aleatorios.

Enlaces relacionado con generar aleatoriedad


Entropa (informacin) Teora de probabilidad Secuencia pseudoaleatoria Nmero aleatorio Variable aleatoria Proceso estocstico

Aleatoriedad

111

Malinterpretaciones / falacias lgicas


Percepciones populares de la aleatoriedad estn frecuentemente equivocadas, basadas en falacias lgicas. El seguimiento en un intento de identificar la fuente de tales falacias y corregir los errores lgicos.

Un nmero est "debido"


Este argumento dice que "ya que todos los nmeros eventualmente saldrn en una seleccin aleatoria, aquellos que todava no hayan salido estn 'debidos' y es ms probable que salgan pronto". Esta lgica es solo correcta si es aplicada a un sistema donde los nmeros que salen son removidos del sistema, as como cuando se barajan las cartas y se regresan al mazo. Es verdad, por ejemplo, que una vez que una J es removida del mazo, la prxima carta es menos probable que sea una J y ms probable que sea otra. Sin embargo, si la J es regresada al mazo, y este es rebarajado, hay una oportunidad igual de sacar una J o cualquier otra carta la prxima vez. La misma verdad se aplica a cualquier otro caso donde los objetos son seleccionados independientemente y nada es removido del sistema luego de cada evento, as como una tirada de dado, de moneda o la mayora de las loteras.

Un nmero est "maldito"


Este argumento es casi la reversa del de arriba, y dice que los nmeros que han salido de forma menos seguida en el pasado continuarn viniendo con menor frecuencia en el futuro. Un argumento similar, "nmero 'bendito'", puede estar diciendo que los nmeros que han salido con mayor frecuencia en el pasado lo harn en el futuro. Esta lgica es solo vlida si la tirada es de alguna manera parcial y los resultados no tienen igual probabilidades -por ejemplo, con un dado pesado. Si sabemos con seguridad que la tirada es justa, entonces eventos previos no tienen influencia en eventos futuros. Ntese que en la naturaleza, eventos inesperados o inciertos raramente ocurren con frecuencias perfectamente iguales, de esta manera el aprender qu eventos son probables que tengan probabilidades ms altas observando resultados tiene sentido. Lo que es falaz es aplicar esta lgica a sistemas que son especialmente diseados para que todos los resultados sean igualmente probables -tales como los dados, las ruletas, etc.

Citas
"Dios no juega a los dados con el universo". Albert Einstein "Nmeros aleatorios no deberan ser generados por un mtodo elegido aleatoriamente". Donald E. Knuth "La generacin de nmeros aleatorios es demasiado importante para ser librada al azar". Robert R. Coveyou, Laboratorio Nacional de Oak Ridge, 1969 "Aquello que es esttico y repetitivo es aburrido. Aquello que es dinmico y aleatorio es confuso. En el medio yace el arte". John Locke "Rio de lo predecible y cuento lo pseudo aleatorio". Steven Roddis "Cmo osamos hablar de las leyes del azar? No es azar la anttesis de toda ley?". Joseph Bertrand, Calcul des probabilits, 1889

Aleatoriedad

112

Bibliografa
Deborah J. Bennett (1998). Randomness. Harvard University Press. ISBN 0-674-10745-4. Olav Kallenberg (1986). Random Measures, 4ta ed.. Academic Press, New York, London; Akademie-Verlag, Berlin. MR0854102. Donald E. Knuth (1997). The Art of Computer Programming. Vol. 2: Seminumerical Algorithms, 3ra ed.. Reading, MA: Addison-Wesley. ISBN 0-201-89684-2. Nassim Nicholas Taleb (2004). Fooled by Randomness, 2da ed.. Thomson Texere. 1-58799-190-X. Gregory Chaitin (2001). Exploring Randomness. Springer-Verlag London. ISBN 1-85233-417-7.

Enlaces externos
WikiquoteCitas en Wikiquote. Puedes creer a la aleatoriedad? [1] (enlace roto disponible en Internet Archive; vase el historial [2] y la ltima versin [3]). Random.org [4] Aleatoriedad y prueba matemtica [5] Un programa de prueba con secuencias numerales pseudoaleatorias (Dominio Pblico) [6] Diccionario de la Historia de Ideas: [7] Azar

Filosofa: Libre Voluntad vs. Determinacin [8] Historia de las definiciones de aleatoriedad [9], en "Un nuevo tipo de ciencia" de Stephen Wolfram.

Referencias
[1] [2] [3] [4] [5] [6] [7] [8] [9] http:/ / wetzel. psych. rhodes. edu/ random/ intro. html http:/ / web. archive. org/ web/ */ http:/ / wetzel. psych. rhodes. edu/ random/ intro. html http:/ / web. archive. org/ web/ 2/ http:/ / wetzel. psych. rhodes. edu/ random/ intro. html http:/ / www. random. org http:/ / www. cs. auckland. ac. nz/ CDMTCS/ chaitin/ sciamer. html http:/ / www. fourmilab. ch/ random/ http:/ / etext. lib. virginia. edu/ cgi-local/ DHI/ dhi. cgi?id=dv1-46 http:/ / www. spaceandmotion. com/ Philosophy-Free-Will-Determinism. htm http:/ / www. wolframscience. com/ nksonline/ page-1067b-text

Teora de la computabilidad

113

Teora de la computabilidad
La Teora de la computabilidad es la parte de la computacin que estudia los problemas de decisin que pueden ser resueltos con un algoritmo o equivalentemente con una mquina de Turing. La teora de la computabilidad se interesa a cuatro preguntas: Qu problemas puede resolver una mquina de Turing? Qu otros formalismos equivalen a las mquinas de Turing? Qu problemas requieren mquinas ms poderosas? Qu problemas requieren mquinas menos poderosas?
VEB Robotron Elektronik Dresden.

La teora de la complejidad computacional clasifica las funciones computables segn el uso que hacen de diversos recursos en diversos tipos de mquina.

Antecedentes
El origen de los modelos abstractos de computacin se encuadra en los aos '30 (antes de que existieran los ordenadores modernos), para el trabajo de los lgicos Alonzo Church, Kurt Gdel, Stephen Kleene, Emil Leon Post, y Alan Turing. Estos trabajos iniciales han tenido una profunda influencia, tanto en el desarrollo terico como en abundantes aspectos de la prctica de la computacin; previendo incluso la existencia de ordenadores de propsito general, la posibilidad de interpretar programas, la dualidad entre software y hardware, y la representacin de lenguajes por estructuras formales basados en reglas de produccin. El punto inicial de estos primeros trabajos fueron las cuestiones fundamentales que David Hilbert formul en 1900, durante el transcurso de un congreso internacional. Lo que Hilbert pretenda era crear un sistema matemtico formal completo y consistente en el cual, todas las aseveraciones fueran planteadas con precisin. Su intencin era encontrar un algoritmo que determinara la verdad o falsedad de cualquier proposicin en el sistema formal. Al problema en cuestin se le denomin Entscheidungsproblem. En caso de que Hilbert hubiese cumplido su objetivo, cualquier problema bien definido se resolvera simplemente al ejecutar dicho algoritmo. Pero no fueron otros los que mediante una serie de investigaciones mostraron que esto no era posible. En contra de esta idea K. Gdel sac a la luz su conocido Primer Teorema de Incompletitud. Este viene a expresar que todo sistema de primer orden consistente que contenga los teoremas de la aritmtica y cuyo conjunto de axiomas sea recursivo no es completo. Gdel construy una frmula que es satisfactoria pero que no puede ser probada en el sistema. Como consecuencia, no es posible encontrar el sistema formal deseado por Hilbert en el marco de la lgica de primer orden, a no ser que se tome un conjunto no recursivo de axiomas. Una posterior versin, que resulta ms general, del teorema de incompletitud de Gdel, indica que ningn sistema deductivo que contenga los teoremas de la aritmtica, y con los axiomas recursivamente enumerables puede ser consistente y completo a la vez. Esto hace pensar, a nivel intuitivo, que no va a ser posible definir un sistema formal.

Teora de la computabilidad

114

Qu problemas puede resolver una mquina de Turing?


No todos los problemas pueden ser resueltos. Un problema indecidible es uno que no puede ser resuelto con un algoritmo an si se dispone de espacio y tiempo ilimitado. Actualmente se conocen muchos problemas indecidibles, como por ejemplo: El Entscheidungsproblem (problema de decisin en alemn) que se define como: Dada una frase del clculo de predicados de primer orden, decidir si ella es un teorema. Church y Turing demostraron independientemente que este problema es indecidible (ver Tesis de Church-Turing). El Problema de la parada, que se define as: Dado un programa y su entrada, decidir si ese programa terminar para esa entrada o si correr indefinidamente. Turing demostr que se trata de un problema indecidible. Un nmero computable es un nmero real que puede ser aproximado por un algoritmo con un nivel de exactitud arbitrario. Turing demostr que casi todos los nmeros no son computables. Por ejemplo, la Constante de Chaitin no es computable aunque s que est bien definido.

Qu otros formalismos equivalen a las mquinas de Turing?


Los lenguajes formales que son aceptados por una mquina de Turing son exactamente aquellos que pueden ser generados por una gramtica formal. El clculo Lambda es una forma de definir funciones. Las funciones que pueden ser computadas con el clculo Lambda son exactamente aquellas que pueden ser computadas con una mquina de Turing. Estos tres formalismos, las mquinas de Turing, los lenguajes formales y el clculo Lambda son formalismos muy dismiles y fueron desarrollados por diferentes personas. Sin embargo, todos ellos son equivalentes y tienen el mismo poder de expresin. Generalmente se toma esta notable coincidencia como evidencia de que la tesis de Church-Turing es cierta, que la afirmacin de que la nocin intuitiva de algoritmo o procedimiento efectivo de cmputo corresponde a la nocin de cmputo en una mquina de Turing. Los computadores electrnicos, basados en la arquitectura de von Neumann as como las mquinas cunticas tendran exactamente el mismo poder de expresin que el de una mquina de Turing si dispusieran de recursos ilimitados de tiempo y espacio. Como consecuencia, los lenguajes de programacin tienen a lo sumo el mismo poder de expresin que el de los programas para una mquina de Turing y en la prctica no todos lo alcanzan. Los lenguajes con poder de expresin equivalente al de una mquina de Turing se denominan Turing completos. Entre los formalismos equivalentes a una mquina de Turing estn: Mquinas de Turing con varias cintas Mquinas de Turing con cintas bidimensionales, Turmite (o una infinidad de cintas lineales) Mquinas de Turing con nmero limitado de estados y smbolos para la cinta Mquinas de Turing con solo dos estados Autmatas finitos con dos pilas Autmatas finitos con dos contadores Gramticas formales Mquina de Post Clculo Lambda Funciones recursivas parciales Casi todos los lenguajes de programacin modernos si dispusieran de memoria ilimitada Autmatas celulares El Juego de la vida de John Conway Mquinas de Turing no determinsticas Mquinas de Turing probabilsticas

Computador cuntico

Teora de la computabilidad Los ltimos tres ejemplos utilizan una definicin ligeramente diferente de aceptacin de un lenguaje. Ellas aceptan una palabra si cualquiera, cmputo acepta (en el caso de no determinismo), o la mayora de los cmputos aceptan (para las versiones probabilstica y cuntica). Con estas definiciones, estas mquinas tienen el mismo poder de expresin que una mquina de Turing.

115

Qu problemas requieren mquinas ms poderosas?


Se considera que algunas mquinas tienen mayor poder que las mquinas de Turing. Por ejemplo, una mquina orculo que utiliza una caja negra que puede calcular una funcin particular que no es calculable con una mquina de Turing. La fuerza de cmputo de una mquina orculo viene descrita por su grado de Turing. La teora de cmputos reales estudia mquinas con precisin absoluta en los nmeros reales. Dentro de esta teora, es posible demostrar afirmaciones interesantes, tales como el complemento de un conjunto de Mandelbrot es solo parcialmente decidible.

Teora de la complejidad computacional


La Teora de la Complejidad Computacional es una rama de la teora de la computacin que se centra en la clasificacin de los problemas computacionales de acuerdo a su dificultad inherente, y en la relacin entre dichas clases de complejidad. Un problema se cataloga como "inherentemente difcil" si su solucin requiere de una cantidad significativa de recursos computacionales, sin importar el algoritmo utilizado. La teora de la complejidad computacional formaliza dicha aseveracin, introduciendo modelos de cmputo matemticos para el estudio de estos problemas y la cuantificacin de la cantidad de recursos necesarios para resolverlos, como tiempo y memoria. Uno de los roles de la teora de la complejidad computacional es determinar los lmites prcticos de qu es lo que se puede hacer en una computadora y qu no. Otros campos relacionados con la teora de la complejidad computacional son el anlisis de algoritmos y la teora de la computabilidad. Una diferencia significativa entre el anlisis de algoritmos y la teora de la complejidad computacional, es que el primero se dedica a determinar la cantidad de recursos requeridos por un algoritmo en particular para resolver un problema, mientras que la segunda, analiza todos los posibles algoritmos que pudieran ser usados para resolver el mismo problema. La teora de la complejidad computacional trata de clasificar los problemas que pueden, o no pueden ser resueltos con una cantidad determinada de recursos. A su vez, la imposicin de restricciones sobre estos recursos, es lo que la distingue de la teora de la computabilidad, la cual se preocupa por qu tipo de problemas pueden ser resueltos de manera algortmica.

Historia
Antes de que se realizaran investigaciones en torno a la complejidad de los algoritmos, se crearon los cimientos de esta teora por varios investigadores. Uno de los aportes ms influyentes fue la definicin de las Mquinas de Turing en 1936, las cuales resultaron ser una nocin de computadora muy flexible y robusta. A medida que las computadoras se desarrollaban en los 40's y los 50's, la Mquina de Turing demostr ser el modelo terico correcto de cmputo. Sin embargo, rpidamente se descubri que el modelo bsico de la Mquina de Turing fallaba al cuantificar el tiempo y la memoria requerida por una computadora, un problema crtico hoy en da, y an ms en aquellos tiempos. La idea de medir el tiempo y espacio como una funcin de la longitud de la entrada, se origin a principios de los 60's por Hartmanis and Stearns, y as, naci la teora de la complejidad computacional.

Teora de la complejidad computacional En los inicios, los investigadores trataban de entender las nuevas medidas de complejidad, y cmo se relacionaban unas con otras. En 1965, Edmonds defini un "buen" algoritmo como uno con un tiempo de ejecucin acotado por un polinomio, es decir, con un tiempo de ejecucin polinomial[1]. Esto condujo al surgimiento de uno de los conceptos ms importantes de la teora de la complejidad computacional: la NP-completitud y su pregunta fundamental, si P=NP. El campo comenz a florecer cuando el investigador norteamericano Stephen Cook , trabajando de manera independiente al investigador sovitico Leonid Levin, probaron que existen problemas relevantes que son NP-completos. En 1972, Richard Karp llev esta idea un paso ms adelante, demostrando que 21 problemas combinatorios y de teora de grafos, caracterizados por ser computacionalmente intratables, eran NP-completos[2]. Tambin en los 70's, se produjo un crecimiento de las clases de complejidad a medida que los investigadores trataban de comprender los distintos modelos de cmputo existentes. En los 80's, se produjo un auge de los modelos finitos, que analizaban el proceso de cmputo de una manera inherentemente distinta. Surgi un nuevo acercamiento a problemas como P=NP, y an cuando estos modelos tenan sus limitaciones separando las clases de complejidad, esta aproximacin introdujo tcnicas combinatorias que permitieron un mejor entendimiento de los lmites de estos modelos. Ya en los 90's, se estudiaron nuevos modelos de cmputo como las computadoras cunticas, donde una misma tarea puede tener diferente complejidad en la computacin clsica y en la computacin cuntica. Sin embargo, existen varias limitantes, entre ellas, la de desarrollar un hardware para este modelo, y que se requieren grandes cantidades de espacio para realizar los clculos.

116

Problemas, algoritmos y complejidad


Para poder referirnos a problemas como "inherentemente intratables" y problemas de dificultad "equivalente", es necesario comprender algunos trminos ms bsicos.

Problema computacional
Un problema computacional constituye una pregunta a ser respondida, teniendo generalmente varios parmetros, o variables libres, cuyos valores no se han especificado. Un problema se describe mediante: 1. Una descripcin general de todos sus parmetros (pueden ser de entrada o de salida). 2. Una sentencia que describa las propiedades que la respuesta, o la solucin, debe cumplir. Una instancia de un problema se obtiene cuando se especifican valores particulares para todos los parmetros del problema. Por ejemplo, consideremos el problema del test de primalidad. La instancia es un nmero (e.g. 15) y la solucin es "s" si el nmero es primo, y "no" en caso contrario. Visto de otra manera, la instancia es una entrada particular del problema, y la solucin es la salida correspondiente para la entrada dada.

Problemas de decisin
Un problema de decisin es un tipo especial de problema computacional cuya respuesta es solamente "s" o "no" (o, de manera ms formal, "1" o "0"). Un problema de decisin pudiera verse como un lenguaje formal, donde los elementos que pertenecen al lenguaje son las instancias del problema cuya respuesta es "s", los que no pertenecen al lenguaje son aquellas instancias cuya respuesta es "no". El objetivo es decidir, con la ayuda de un algoritmo, si una determinada entrada es un elemento del lenguaje formal considerado. Si el algoritmo devuelve como respuesta "s", se dice que el algoritmo acepta la entrada, de lo contrario se dice que la rechaza. Los problemas de decisin constituyen uno de los principales objetos de estudio de la teora de la complejidad computacional, pues la NP-compleitud se aplica directamente a estos tipos de problemas en vez de a problemas de optimizacin. Estos problemas tienen gran importancia porque casi todo problema puede transformarse en un

Teora de la complejidad computacional problema de decisin.

117

Algoritmos
Podemos decir informalmente, que los algoritmos son procedimientos paso-a-paso para resolver problemas. Se puede pensar en ellos como simples programas de computadora, escritos en un lenguaje artificial especfico[3]. Se dice que un algoritmo resuelve un problema A, si dicho algoritmo se puede aplicar a cualquier instancia I de A, y se garantiza que siempre produce una solucin para dicha instancia. De manera general, nos interesa encontrar el algoritmo ms "eficiente" para resolver cierto problema. En su sentido ms amplio, la nocin de eficiencia involucra a todos los recursos computacionales necesarios para la ejecucin de un algoritmo. Por algoritmo "ms eficiente" usalmente nos referimos al ms rpido. Debido a que los requerimientos de tiempo son usualmente un factor dominante cuando se trata de determinar si un algoritmo es lo suficientemente eficiente para ser til en la prctica, nos concentraremos en este recurso.

Algoritmos polinomiales y problemas intratables


Los cientficos de la computacin realizan la distincin entre algoritmos de tiempo polinomial y algoritmos de tiempo exponencial cuando se trata de caracterizar a los algoritmos como "suficientemente eficiente" y "muy ineficiente" respectivamente. Un algoritmo de tiempo polinomial se define como aquel con funcin de complejidad temporal en O(p(n)) para alguna funcin polinmica p, donde n denota el tamao de la entrada. Cualquier algoritmo cuya funcin de complejidad temporal no pueda ser acotada de esta manera, se denomina algoritmo de tiempo exponencial. La mayora de los algoritmos de tiempo exponencial son simples variaciones de una bsqueda exhaustiva, mientras que los algoritmos de tiempo polinomial, usualmente se obtienen mediante un anlisis ms profundo de la estructura del problema. En la teora de la complejidad computacional, existe el consenso de que un problema no est "bien resuelto" hasta que se conozca un algoritmo de tiempo polinomial que lo resuelva. Por tanto, nos referiremos a un problema como intratable, si es tan difcil que no existe algoritmo de tiempo polinomial capaz de resolverlo[4].

Clases de complejidad
Una clase de complejidad es un conjunto de problemas que poseen la misma complejidad computacional.

Definiendo clases de complejidad


Las clases de complejidad ms sencillas se definen teniendo en cuenta factores como: El tipo de problema computacional: Los problemas ms comunmente utilizados son los problemas de decisin, pero las clases de complejidad se pueden definir para otros tipos de problemas. El modelo de cmputo: El modelo de cmputo ms comn es la Mquina de Turing determinista, pero muchas clases de complejidad se basan en Mquinas de Turing no deterministas, Mquinas de Turing cunticas, etc. El recurso (o recursos) que est(n) siendo acotado(s) y la(s) cota(s): Estas dos propiedades usualmente se utilizan juntas, por ejemplo, "tiempo polinomial", "espacio logartmico", "profundidad constante", etc.

Teora de la complejidad computacional

118

Mquinas de Turing deterministas y la clase P


La clase P contiene a aquellos problemas que son solubles en tiempo polinomial por una Mquina de Turing determinista[5]. Para la definicin anterior se ha fijado el modelo de cmputo: la Mquina de Turing determinista. Existen distintas variantes de la Mquina de Turing y es conocido que la ms dbil de ellas puede simular a la ms fuerte, adicionando a lo sumo un tiempo polinomial. En las dcadas posteriores a la Tesis de Church-Turing surgieron otros modelos de cmputo, y se pudo mostrar que la Mquina de Turing tambin poda simularlos a lo sumo adicionando tambin un tiempo polinomial. Por tanto, la clase anloga a P para dichos modelos no es mayor que la clase P para el modelo de cmputo de la Mquina de Turing. La clase P juega un papel importante en la teora de la complejidad computacional debido a que: 1. P es invariante para todos los modelos de cmputo que son polinmicamente equivalentes a la Mquina de Turing determinista. 2. A grandes rasgos, P corresponde a la clase de problemas que, de manera realista, son solubles en una computadora.

Computacin no determinista y la clase NP


Muchas veces podemos evitar utilizar la fuerza bruta en los problemas para obtener soluciones en tiempo polinomial. Sin embargo, para algunos problemas esto no ha podido lograrse, es decir, no se conocen algoritmos que los resuelvan en tiempo polinomial. Quizs estos problemas tengan algoritmos en tiempo polinomial que se basan en principios por ahora desconocidos, o quizs estos problemas no pueden ser resueltos en tiempo polinomial, debido a que son "inherentemente difciles". La clase de complejidad NP consta de los problemas "verificables" en tiempo polinomial. Por verificable se entiende a un problema tal que dado un certificado de solucin (candidato a solucin), se puede verificar que dicho certificado es correcto en un tiempo polinomial en el tamao de la entrada. A los problemas en la clase NP usualmente se les llama problemas NP[6]. El trmino NP proviene de no determinista en tiempo polinomial y se deriva de un caracterizacin alternativa de esta clase, donde se utilizan Mquinas de Turing no deterministas. Informalmente, se puede definir la clase NP en trminos de un algoritmo no determinista (recordar la equivalencia entre algoritmo y Mquina de Turing). El algoritmo mencionado est compuesto por 2 etapas separadas. Dada una instancia del problema I, la primera etapa simplemente "adivina" un candidato a solucin S. Entonces, la etapa de verificacin recibe como entrada a I y a S, y procede a realizar el cmputo de una manera determinista, finalmente detenindose con la respuesta "s", o con la respuesta "no", o sigue computando sin detenerse. Al igual que la clase P, la clase NP es insensible a la eleccin del modelo de cmputo no determinista, debido a que dichos modelos son equivalentes polinmicamente.

Clases de complejidad importantes


Muchas clases de complejidad importantes pueden ser definidas acotando el tiempo o el espacio utilizado por el algoritmo. Algunas de estas clases de problemas de decisin son:

Teora de la complejidad computacional

119

Complexity class DTIME(f(n)) P EXPTIME NTIME(f(n)) NP NEXPTIME DSPACE(f(n)) L PSPACE EXPSPACE NSPACE(f(n)) NL NPSPACE NEXPSPACE

Model of computation Mquina de Turing determinista Mquina de Turing determinista Mquina de Turing determinista

Resource constraint Tiempof(n) Tiempo poly(n) Tiempo 2poly(n)

Mquina de Turing no determinista Tiempof(n) Mquina de Turing no determinista Tiempo poly(n) Mquina de Turing no determinista Tiempo 2poly(n) Mquina de Turing determinista Mquina de Turing determinista Mquina de Turing determinista Mquina de Turing determinista Espaciof(n) Espacio O(log n) Espacio poly(n) Espacio 2poly(n)

Mquina de Turing no determinista Espaciof(n) Mquina de Turing no determinista Espacio O(log n) Mquina de Turing no determinista Espacio poly(n) Mquina de Turing no determinista Espacio 2poly(n)

La pregunta P=NP
La relacin entre las clases P y NP es fundamental para la teora de la NP-completitud. Intuitivamente, creemos que P es un subconjunto de NP. Y efectivamente, cada problema de decisin resuelto por un algoritmo de tiempo polinomial determinista, tambin puede ser resuelto por un algoritmo de tiempo polinomial no determinista. Simplemente se necesita observar que cualquier algoritmo determinista puede ser utilizado en la etapa de verificacin de un algoritmo no determinista. Si B es un problema de P, y A es un algoritmo de tiempo polinomial para B, entonces se puede construir un algoritmo de tiempo polinomial no determinista para B, simplemente utilizando A en la etapa de verificacin e ignorando la etapa de adivinacin. Por tanto, si B pertenece a P, entonces B tambin pertenece a NP. La pregunta P=NP es una de las ms importantes en el campo de las ciencias de la computacin, debido a las grandes repercusiones que habran, en caso de encontrarse una solucin. Si P=NP, cualquier problema polinmicamente verificable fuera polinmicamente decidible. La mayora de los investigadores creen que estas clases no son iguales, porque se han realizado bastantes esfuerzos para encontrar algoritmos de tiempo polinomial para varios problemas en NP, sin xito. Los investigadores tambin han tratado de probar que las clases son distintas, pero eso conllevara a mostrar que no existe un algoritmo "eficiente" para reemplazar a la bsqueda por fuerza bruta.

Teora de la complejidad computacional

120

NP-Completitud
Reduccin polinomial
Una reduccin es una transformacin de un problema en otro problema. Intuitivamente, un problema Q puede ser reducido a otro problema Q', si cualquier instancia del problema Q puede ser "fcilmente" expresada como una instancia del problema Q', y cuya solucin proporcione una solucin para la instancia de Q[7]. Existen muchos tipos de reducciones: basadas en el mtodo de reduccin, como las reducciones de Cook, las reducciones de Karp y las reducciones de Levin, y las basadas en la cota de la complejidad, como la reduccin en tiempo polinomial o la reduccin de espacio logartmica. Una de las reducciones ms utilizadas es la reduccin en tiempo polinomial, lo cual significa que el proceso de reduccin toma un tiempo polinomial.

Problemas NP-completos
Las reducciones en tiempo polinomial nos dotan de elementos para probar, de una manera formal, que un problema es al menos tan difcil que otro, con una diferencia de un factor polinomial. Estas son esenciales para definir a los problemas NP-completos, adems de ayudar a comprender los mismos. La clase de los problemas NP-completos contiene a los problemas ms difciles en NP, en el sentido de que son los que estn ms lejos de estar en P. Debido a que el problema P=NP no ha sido resuelto, el hecho de reducir un problema B, a otro problema A, indicara que no se conoce solucin en tiempo polinomial para A. Esto es debido a que una solucin en tiempo polinomial para A, tendra como consecuencia la existencia de una solucin polinomial para B. De manera similar, debido a que todos los problemas NP pueden ser reducidos a este conjunto, encontrar un problema NP-completo que pueda ser resuelto en un tiempo polinomial significara que P=NP.

Importancia de la NP-Completitud
Quizs la razn de mayor peso por la cual los cientficos de la computacin creen que P es distinto de NP, es la existencia de la clase de problemas "NP-completos". Esta clase tiene la curiosa propiedad de que si algn problema NP-completo puede ser resuelto en tiempo polinomial, entonces todo problema en NP tiene una solucin en tiempo polinomial, es decir, P=NP. A pesar de aos de estudio, ningn algoritmo de tiempo polinomial se ha descubierto para ningn problema NP-completo. Desde el punto de vista terico, un investigador intentando mostrar que la clase P es distinta de la clase NP, pudiera enfocarse en un problema NP-completo. Si algn problema en NP requiere ms que un tiempo polinomial, entonces uno NP-completo tambin. Adems, un investigador intentando demostrar que P=NP, solo necesita encontrar un algoritmo de tiempo polinomial para un problema NP-completo para lograrlo. Desde el punto de vista prctico, el fenmeno de la NP-completitud puede prevenir la prdida de tiempo cuando se busca un algoritmo de tiempo polinomial no existente para resolver un problema determinado. An cuando no se posean los elementos matemticos para demostrar que cierto problema no se puede resolver en timepo polinomial, creemos que P no es igual a NP, as que demostrar que el problema es NP-completo, es una fuerte evidencia de su no "polinomialidad".

Teora de la complejidad computacional

121

Haciendo frente a problemas NP


Teniendo en cuenta la definicin de problema intratable, si no se cumple que P=NP, entonces los problemas NP-completos son intratables. Muchos problemas de la prctica son NP-completos, y son muy importantes como para desistir simplemente porque no sabemos cmo encontrar una solucin ptima en tiempo polinomial. An si un problema es NP-completo, pueden haber esperanzas. Existen tres estrategias fundamentales para lidiar con un problema NP-completo: Si la entrada es pequea, un algoritmo con tiempo de ejecucin exponencial pudiera ser perfectamente aceptable. Se pudieran aislar algunos casos especiales que se pudieran resolver en tiempo polinomial. Podramos utilizar aproximaciones para encontrar soluciones lo suficientemente cercanas al ptimo en tiempo polinomial. En la prctica, obtener soluciones cercanas al ptimo es bastante aceptable. A estos algoritmos se les denomina algoritmos de aproximacin, y en muchos casos se apoyan en heursticas y metaheursticas.

Referencias
[1] Richard M. Karp, "Combinatorics, Complexity, and Randomness", 1985 Turing Award Lecture. [2] Richard M. Karp (1972), Reducibility Among Combinatorial Problems (http:/ / www. cs. berkeley. edu/ ~luca/ cs172/ karp. pdf), en R. E. Miller and J. W. Thatcher (editors), Complexity of Computer Computations, New York: Plenum, pp.85103. [3] Garey, Michael R., Johnson David S., (1979), Computers and Intractability: A Guide to the Theory of NP-Completeness, W. H. Freeman, (page 4). [4] Garey, Michael R., Johnson David S., (1979), Computers and Intractability: A Guide to the Theory of NP-Completeness, W. H. Freeman, (page 8). [5] Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L. & Stein, Clifford, (2010), Introduction to Algorithms, 3ra edicin, MIT Press and McGraw-Hill, (page 1049). [6] Garey, Michael R., Johnson David S., (1979), Computers and Intractability: A Guide to the Theory of NP-Completeness, W. H. Freeman, (page 28). [7] Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L. & Stein, Clifford, (2010), Introduction to Algorithms, 3ra edicin, MIT Press and McGraw-Hill, (page 1067).

Artculos
Cook, Stephen (1983), An overview of computational complexity, Commun. ACM (ACM) 26 (6): 400408, ISSN 0001-0782 (http:/ / worldcat. org/ issn/ 0001-0782) Fortnow, Lance; Homer, Steven (2002), A Short History of Computational Complexity (http://people.cs. uchicago.edu/~fortnow/papers/history.pdf), Bulletin of the EATCS 80: 95133

Libros de texto
Arora, Sanjeev; Barak, Boaz (2009), Computational Complexity: A Modern Approach (http://www.cs. princeton.edu/theory/complexity/), Cambridge, ISBN 978-0-521-42426-4 Sipser, Michael (2006), Introduction to the Theory of Computation (2da edicin), USA: Thomson Course Technology, ISBN 0-534-95097-3 Garey, Michael R.; Johnson, David S., (1979), Computers and Intractability: A Guide to the Theory of NP-Completeness, W. H. Freeman, ISBN 0-7167-1045-5. Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L. & Stein, Clifford (2010), Introduction to Algorithms (3ra edicin), Cambridge, MA: MIT Press and McGraw-Hill, ISBN 0-262-03384-4.

Teora de la computacin

122

Teora de la computacin
La teora de la computacin es una rama de la matemtica y la computacin que centra su inters en las limitaciones y capacidades fundamentales de las computadoras. Especficamente esta teora busca modelos matemticos que formalizan el concepto de hacer un cmputo (cuenta o clculo) y la clasificacin de problemas.

Principales subramas
Teora de autmatas
Esta teora provee modelos matemticos que formalizan el concepto de computadora o algoritmo de manera suficientemente simplificada y general para que se puedan analizar sus capacidades y limitaciones. Algunos de estos modelos juegan un papel central en varias aplicaciones de las ciencias de la computacin, incluyendo procesamiento de texto, compiladores, diseo de hardware e inteligencia artificial. Los tres principales modelos son los autmatas finitos, autmatas con pila y mquinas de Turing, cada uno con sus variantes deterministas y no deterministas. Los autmatas finitos son buenos modelos de computadoras que tienen una cantidad limitada de memoria, los autmatas con pila modelan los que tienen gran cantidad de memoria pero que solo pueden manipularla a manera de pila (el ltimo dato almacenado es el siguiente ledo), y las mquinas de Turing modelan las computadoras que tienen una gran cantidad de memoria almacenada en una cinta. Estos autmatas estn estrechamente relacionados con la teora de lenguajes formales; cada autmata es equivalente a una gramtica formal, lo que permite reinterpretar la jerarqua de Chomsky en trminos de autmatas. Existen muchos otros tipos de autmatas como las mquinas de acceso aleatorio, autmatas celulares, mquinas baco y las mquinas de estado abstracto; sin embargo en todos los casos se ha mostrado que estos modelos no son ms generales que la mquina de Turing, pues la mquina de Turing tiene la capacidad de simular cada uno de estos autmatas. Esto da lugar a que se piense en la mquina de Turing como el modelo universal de computadora.

Teora de la computabilidad
Esta teora explora los lmites de la posibilidad de solucionar problemas mediante algoritmos. Gran parte de las ciencias computacionales estn dedicadas a resolver problemas de forma algortmica, de manera que el descubrimiento de problemas imposibles es una gran sorpresa. La teora de la computabilidad es til para no tratar de resolver algoritmicamente estos problemas, ahorrando as tiempo y esfuerzo. Los problemas se clasifican en esta teora de acuerdo a su grado de imposibilidad: Los computables son aquellos para los cuales s existe un algoritmo que siempre los resuelve cuando hay una solucin y adems es capaz de distinguir los casos que no la tienen. Tambin se les conoce como decidibles, resolubles o recursivos. Los semicomputables son aquellos para los cuales hay un algoritmo que es capaz encontrar una solucin si es que existe, pero ningn algoritmo que determine cuando la solucin no existe (en cuyo caso el algoritmo para encontrar la solucin entrara a un bucle infinito). El ejemplo clsico por excelencia es el problema de la parada. A estos problemas tambin se les conoce como listables, recursivamente enumerables o reconocibles, porque si se enlistan todos los casos posibles del problema, es posible reconocer a aquellos que s tienen solucin. Los incomputables son aquellos para los cuales no hay ningn algoritmo que los pueda resolver, no importando que tengan o no solucin. El ejemplo clsico por excelencia es el problema de la implicacin lgica, que consiste en determinar cundo una proposicin lgica es un teorema; para este problema no hay ningn algoritmo que en todos los casos pueda distinguir si una proposicin o su negacin es un teorema. Hay una versin ms general de esta clasificacin, donde los problemas incomputables se subdividen a su vez en problemas ms difciles que otros. La herramienta principal para lograr estas clasificaciones es el concepto de

Teora de la computacin reducibilidad: Un problema posible resolver al problema resolver que el problema se reduce al problema ; esto se denota por

123 si bajo la suposicin de que se sabe resolver el problema , e informalmente significa que el problema es

no es ms difcil de

. Por ejemplo, bajo la suposicin de que una persona sabe sumar, es muy fcil ensearle a

multiplicar haciendo sumas repetidas, de manera que multiplicar se reduce a sumar.

Teora de la complejidad computacional


Aun cuando un problema sea computable, puede que no sea posible resolverlo en la prctica si se requiere mucha memoria o tiempo de ejecucin. La teora de la complejidad computacional estudia las necesidades de memoria, tiempo y otros recursos computacionales para resolver problemas; de esta manera es posible explicar por qu unos problemas son ms difciles de resolver que otros. Uno de los mayores logros de esta rama es la clasificacin de problemas, similar a la tabla peridica, de acuerdo a su dificultad. En esta clasificacin los problemas se separan por clases de complejidad. Esta teora tiene aplicacin en casi todas las reas de conocimiento donde se desee resolver un problema computacionalmente, porque los investigadores no solo desean utilizar un mtodo para resolver un problema, sino utilizar el ms rpido. La teora de la complejidad computacional tambin tiene aplicaciones en reas como la criptografa, donde se espera que descifrar un cdigo secreto sea un problema muy difcil a menos que se tenga la contrasea, en cuyo caso el problema se vuelve fcil.

Otras subramas
Modelos de cmputo Estudia abstracciones de hacer un cmputo. Aqu se incluyen los clsicos modelos de la teora de autmatas adems de otros modelos como funciones recursivas, clculo lambda e inclusive lenguajes de programacin. Teora algortmica de la informacin Centra su atencin en la complejidad para describir algoritmicamente una secuencia de datos (cadena); aqu la complejidad est medida por la longitud de su descripcin ms pequea. Especificacin y verificacin formal Busca metodologas para garantizar que un problema est correctamente modelado y sistemas formales para validar la correccin de la solucin algortmica. La Teora del aprendizaje computacional busca algoritmos que hagan que las computadoras modifiquen sus comportamientos de manera autnoma con base en datos empricos, y concretamente en ejemplos y contraejemplos. A este tipo de aprendizaje se le llama aprendizaje supervisado. De forma anloga a la teora de la complejidad computacional, en esta teora las funciones se clasifican por su grado de dificultad de ser aprendidas. Teora de tipos Busca la clasificacin de enunciados de acuerdo a los tipos de valores que calculan utilizando herramientas de teora de lenguajes formales.

Historia
La teora de la computacin comienza propiamente a principios del siglo XX, poco antes que las computadoras electrnicas fuesen inventadas. En esta poca varios matemticos se preguntaban si exista un mtodo universal para resolver todos los problemas matemticos. Para ello deban desarrollar la nocin precisa de mtodo para resolver problemas, es decir, la definicin formal de algoritmo. Algunos de estos modelos formales fueron propuestos por precursores como Alonzo Church (clculo Lambda), Kurt Gdel (funciones recursivas) y Alan Turing (mquina de Turing). Se ha mostrado que estos modelos son equivalentes en el sentido de que pueden simular los mismos algoritmos, aunque lo hagan de maneras diferentes. Entre los modelos de cmputo ms recientes se encuentran los lenguajes de programacin, que tambin han mostrado ser equivalentes a los modelos anteriores; esto es una fuerte evidencia de la conjetura de Church-Turing, de que todo algoritmo habido y por haber se puede simular en una mquina de Turing, o equivalentemente, usando funciones recursivas. En 2007 Nachum Dershowitz y Yuri Gurevich publicaron una demostracin de esta conjetura

Teora de la computacin basndose en cierta axiomatizacin de algoritmos.[1] Uno de los primeros resultados de esta teora fue la existencia de problemas imposibles de resolver algoritmicamente, siendo el problema de la parada el ms famoso de ellos. Para estos problemas no existe ni existir ningn algoritmo que los pueda resolver, no importando la cantidad de tiempo o memoria se disponga en una computadora. Asimismo, con la llegada de las computadoras modernas se constat que algunos problemas resolubles en teora eran imposibles en la prctica, puesto que dichas soluciones necesitaban cantidades irrealistas de tiempo o memoria para poderse encontrar.....

124

Referencias
[1] Nachum Dershowitz & Yuri Gurevich (2008). A natural axiomatization of computability and proof of Church's Thesis (http:/ / research. microsoft. com/ en-us/ um/ people/ gurevich/ Opera/ 188. pdf). Bulletin of Symbolic Logic 14 (3). ISSN 10798986, 299-350. .

Sipser, Michael (http://www-math.mit.edu/~sipser/) (2005). Introduction to the Theory of Computation (2 edicin). Course Technology. ISBN 978-0534950972. Kelley, Dean (http://krypton.mnsu.edu/~kelled/) (1995). Teora de Autmatas y Lenguajes Formales. Prentice Hall. ISBN 978-0-691-13382-9. Boolos, George; Burgess, John; & Jefrey, Richard (2007). Computability and logic. Cambridge. ISBN 978-0-521-70146-4. S. Barry Cooper (2004). Computability theory. Chapman & Hall/CRC. ISBN 1-58488-237-9. Seccin 68Qxx, Theory of computing de American Mathematical Society. 2010 Mathematics Subject Classification. (http://www.ams.org/mathscinet/msc/pdfs/classifications2010.pdf). Consultado el 7 de marzode 2010.

Ciencias de la computacin
Las ciencias de la computacin o ciencias computacionales (popularmente solo computacin) son aquellas que abarcan las bases tericas de la informacin y la computacin, as como su aplicacin en sistemas computacionales.[1][2][3] Existen diversos campos o disciplinas dentro de las ciencias de la computacin o ciencias computacionales; algunos resaltan los resultados especficos del cmputo (como los grficos por computadora), mientras que otros (como la teora de la complejidad computacional) se relacionan con propiedades de los algoritmos usados al realizar cmputos y otros se enfocan en los problemas que requieren la implementacin de cmputos. Por ejemplo, los estudios de la teora de lenguajes de programacin describen un cmputo, mientras que la programacin de computadoras aplica lenguajes de programacin especficos para desarrollar una solucin a un problema computacional especfico. La informtica se refiere al tratamiento automatizado de la informacin de una forma til y oportuna. No se debe confundir el carcter terico de esta ciencia con otros aspectos prcticos como Internet. Segn Peter J. Denning, la cuestin fundamental en que se basa la ciencia de la computacin es: "Qu puede ser (eficientemente) automatizado?".[4]

Historia
La historia de la ciencia de la computacin antecede a la invencin del computador digital moderno. Antes de la dcada de 1920, el trmino computador se refera a un ser humano que realizaba clculos.[5] Los primeros investigadores en lo que despus se convertira las ciencias de la computacin estaban interesados en la cuestin de la computabilidad: qu cosas pueden ser computadas por un ser humano que simplemente siga una lista de instrucciones con lpiz y papel, durante el tiempo que sea necesario, con ingenuidad y sin conocimiento previo del problema. Parte de la motivacin para este trabajo era el desarrollar mquinas que computaran y que pudieran

Ciencias de la computacin automatizar el tedioso y falible trabajo de la computacin humana. Durante la dcada de 1940, conforme se desarrollaban nuevas y ms poderosas mquinas para computar, el trmino computador se comenz a utilizar para referirse a las mquinas y ya no a sus antecesores humanos. Conforme iba quedando claro que las computadoras podan usarse para ms cosas que solamente clculos matemticos, el campo de la ciencia de la computacin se fue ampliando para estudiar a la computacin (informtica) en general. La ciencia de la computacin comenz entonces a establecerse como una disciplina acadmica en la dcada de 1960, con la creacin de los primeros departamentos de ciencia de la computacin y los primeros programas de licenciatura (Denning 2000).

125

Campos de las ciencias de la computacin


Fundamentos matemticos
Criptografa Consta de algoritmos para proteger datos privados, incluido el cifrado. Teora de grafos Recursos elementales para las estructuras de almacenamiento de datos y para los algoritmos de bsqueda. Lgica matemtica La lgica matemtica estudia los sistemas formales en relacin con el modo en el que se codifican nociones intuitivas de objetos matemticos como conjuntos, nmeros, demostraciones y computacin. Teora de tipos Anlisis formal de los tipos de datos y el uso de estos para entender las propiedades de los programas, en particular la seguridad de estos.

Teora de la computacin
Teora de la computacin Teora de autmatas Teora de la computabilidad Teora de la complejidad computacional Lmites fundamentales (en especial de espacio en memoria y tiempo) de los cmputos.

Algoritmos y estructuras de datos


Anlisis de algoritmos Algoritmos procesos formales usados para los cmputos, y eficiencia de estos procesos. Estructuras de datos organizacin y manipulacin de los datos Lgica y computabilidad estudio de diferentes tipos de lgicas, su poder expresivo, decidibilidad, aplicaciones. Especificacin desarrollo de mtodos para definir formalmente (matemtica y lgicamente) el comportamiento esperado de un algoritmo, para luego probar terminacin y correctitud.

Ciencias de la computacin

126

Lenguajes de programacin y compiladores


Compiladores formas de traducir programas computacionales, usualmente a partir de lenguajes de alto nivel a lenguajes de bajo nivel. Teora de lenguajes de programacin lenguajes formales para expresar algoritmos y las propiedades de estos lenguajes.

Bases de datos
Bases de datos Estructura de datos Minera de datos estudio de algoritmos para buscar y procesar informacin en documentos y bases de datos; muy relacionada con la adquisicin de informacin.

Sistemas concurrentes, paralelos y distribuidos


Programacin concurrente teora y prctica de cmputos simultneos y computacin interactiva. Redes de computadoras algoritmos y protocolos para comunicar eficientemente datos a travs de largas distancias, incluye tambin la correccin de errores. Cmputo paralelo computacin con el uso de mltiples computadoras y mltiples procesadores en paralelo. Sistemas distribuidos sistemas que utilizan mltiples procesadores repartidos en una gran rea geogrfica.

Inteligencia artificial
Inteligencia artificial (IA) la implementacin y estudio de sistemas que exhiben (ya sea por su comportamiento o aparentemente) una inteligencia autnoma o comportamiento propio, a veces inspirado por las caractersticas de los seres vivos. Las ciencias de la computacin estn relacionadas con la IA, ya que el software y las computadoras son herramientas bsicas para su desarrollo y progreso. Razonamiento automatizado Robtica algoritmos para controlar el comportamiento de los robots. Visin por computador algoritmos para extraer objetos tridimensionales de una imagen bidimensional. Aprendizaje automtico

Ciencias de la computacin

127

Grficos por computador


Computacin grfica algoritmos tanto para generar sintticamente imgenes visuales como para integrar o alterar la informacin visual y espacial tomada del mundo real. Procesamiento digital de imgenes por ejemplo, para sensores remotos. Geometra computacional por ejemplo, algoritmos veloces para seleccionar solo los puntos visibles en un poliedro visto desde cierto ngulo, usado en motores 3D.

Computacin cientfica
Bioinformtica Computacin cuntica Paradigma de computacin basado en la mecnica cuntica Neurociencia computacional

Relacin con otros campos


Por ser una disciplina reciente, existen varias definiciones alternativas para la ciencia de la computacin. Esta puede ser vista como una forma de ciencia, matemticas o una nueva disciplina que no puede ser categorizada siguiendo los modelos actuales. Las ciencias de la computacin frecuentemente se cruzan con otras reas de investigacin, tales como la fsica y la lingstica. Pero es con las matemticas con las que se considera que tiene un grado mayor de relacin. Eso es evidenciado por el hecho de que los primeros trabajos en el rea fueran fuertemente influenciados por matemticos como Kurt Gdel y Alan Turing. En la actualidad sigue habiendo un intercambio de ideas til entre ambos campos en reas como la lgica matemtica, la teora de categoras, la teora de dominios, el lgebra y la geometra. Otro punto a destacar es que, a pesar de su nombre, las ciencias de la computacin raramente involucran el estudio mismo de las mquinas conocidas como computadoras. De hecho, el renombrado cientfico Edsger Dijkstra es muy citado por la frase "Las ciencias de la computacin estn tan poco relacionadas con las computadoras como la astronoma con los telescopios." Debido a esto, se propuso buscar un nombre definido para esta ciencia emergente, que evitara la relacin con las computadoras. Una primera propuesta fue la de Peter Naur, que acu el trmino datologa, para reflejar el hecho de que la nueva disciplina se ocupaba fundamentalmente del tratamiento de los datos, independientemente de las herramientas de dicho tratamiento, fueran computadoras o artificios matemticos. La primera institucin cientfica en adoptar la denominacin fue el Departamento de Datologa de la Universidad de Copenhague, fundado en 1969, y fue el propio Peter Naur el primer profesor de datologa. Esta denominacin se utiliza principalmente en los pases escandinavos. Asimismo, en los primeros momentos, un gran nmero de trminos aparecieron asociados a los practicantes de la computacin. En esta lista se pueden ver los sugeridos en las revistas y comunicados de la Association for Computer Machinery: turingeniero, turologista, hombre de los diagramas de flujo (flow-charts-man), metamatemtico aplicado y epistemlogo aplicado. Tres meses ms tarde se sugiri el trmino contlogo, seguido de hiplogo al ao siguiente. Tambin se sugiri el trmino comptica para la disciplina. Informtica era, sin embargo, el trmino ms frecuentemente usado en toda Europa.

Ciencias de la computacin El diseo y desarrollo de computadoras y sistemas computacionales generalmente se considera un campo reclamado por disciplinas ajenas a las ciencias de la computacin. Por ejemplo, el estudio del hardware suele considerarse parte de la ingeniera informtica, mientras que el estudio de sistemas computacionales comerciales y su desarrollo suelen denominarse tecnologas de la informacin (TI) o sistemas de informacin. Sin embargo, hay una estrecha comunicacin de ideas entre las distintas disciplinas relacionadas con las computadoras. La ciencia de la computacin a menudo recibe crticas desde otros estamentos que la consideran escasamente rigurosa y cientfica. Esta opinin se plasma en la expresin: "La ciencia es a las ciencias de la computacin como la hidrodinmica a la fontanera", atribuida a Stan Kelly-Bootle y otros afines. La investigacin en ciencias de la computacin tambin suele relacionarse con otras disciplinas, como la ciencia cognitiva, la fsica (vase computacin cuntica), la lingstica, etctera. La relacin entre las ciencias de la computacin y la ingeniera de software es un tema muy discutido, por disputas sobre lo que realmente significa el trmino ingeniera de software y sobre cmo se define a las ciencias de la computacin. Algunas personas creen que la ingeniera de software sera un subconjunto de las ciencias de la computacin. Otras, tomando en cuenta la relacin entre otras disciplinas cientficas y de la ingeniera, creen que el principal objetivo de las ciencias de la computacin sera estudiar las propiedades del cmputo en general, mientras que el objetivo de la ingeniera de software sera disear cmputos especficos para lograr objetivos prcticos, con lo que se convertira en disciplinas diferentes. Este punto de vista es el que sostiene, por ejemplo, Parnas (1998). Incluso hay otros que sostienen que no podra existir una ingeniera de software. Los aspectos acadmicos, polticos y de financiamiento en las reas de ciencias de la computacin tienden a verse influidos drsticamente por el criterio del departamento encargado de la investigacin y la educacin en cada universidad, que puede estar orientado a la matemtica o a la ingeniera. Los departamentos de ciencias de la computacin orientados a la matemtica suelen alinearse del lado de la computacin cientfica y las aplicaciones de clculo numrico. El trmino computacin cientfica, que no debe confundirse con ciencia de la computacin, designa a todas aquellas prcticas destinadas a modelar, plantear experimentos y validar teoras cientficas sirvindose de medios computacionales. En estos casos la computacin es una mera herramienta y el esfuerzo se dirige a avanzar en los campos objetivo (fsica, biologa, mecnica de fluidos, radiotransmisin,...), ms que en la propia ciencia de la computacin. Finalmente, el pblico en general algunas veces confunde la ciencia de la computacin con reas vocacionales que trabajan con computadoras o piensan que trata acerca de su propia experiencia con las computadoras, lo cual suele incluir actividades como los juegos, la navegacin web y el procesamiento de texto. Sin embargo, el punto central de la ciencia de la computacin va ms all de entender las propiedades de los programas que se emplean para implementar aplicaciones de software como juegos y navegadores web, y utiliza ese entendimiento para crear nuevos programas o mejorar los existentes.[6]

128

Ciencias de la computacin

129

Referencias
[1] "Computer science is the study of information" Department of Computer and Information Science (http:/ / www. njit. edu/ v2/ archivecatalog/ undergraduate/ 91/ 19-und. html), Guttenberg Information Technologies [2] "Computer science is the study of computation." Computer Science Department, College of Saint Benedict (http:/ / www. csbsju. edu/ computerscience/ curriculum), Saint John's University [3] "Computer Science is the study of all aspects of computer systems, from the theoretical foundations to the very practical aspects of managing large software projects." Massey University (http:/ / study. massey. ac. nz/ major. asp?major_code=2010& prog_code=93068) [4] Denning, P.J. (2000). Computer Science: The Discipline (http:/ / web. archive. org/ web/ 20060525195404/ http:/ / www. idi. ntnu. no/ emner/ dif8916/ denning. pdf) (PDF). Encyclopedia of Computer Science. . [5] David Alan Grier (2005). When computers were human. Princeton University Press. ISBN 84-89660-00-X. [6] "Common myths and preconceptions about Cambridge Computer Science" Computer Science Department (http:/ / www. cl. cam. ac. uk/ admissions/ undergraduate/ myths/ ), University of Cambridge

Bibliografa
Abelson, H. y Sussman, G.J. con Sussman, J. (1996). Structure and Interpretation of Computer Programs, 2nd Ed.. EUA: MIT Press. ISBN 0-262-01153-0. Constable, R. L. (1997). "Nature of the Information Sciences" (http://www.cs.cornell.edu/cis-dean/Nature. pdf). Constable, R. L. (2000, marzo). "Computer Science: Achievements and Challenges circa 2000" (http://www.cs. cornell.edu/cis-dean/bgu.pdf). Parnas, D. L. (1998). Software Engineering Programmes are not Computer Science Programmes.

Enlaces externos
Wikimedia Commons alberga contenido multimedia sobre Ciencias de la computacin. Commons Wikiversidad alberga proyectos de aprendizaje sobre Ciencias de la computacin.Wikiversidad

Clase de complejidad

130

Clase de complejidad
En teora de la complejidad computacional, una clase de complejidad es un conjunto de problemas de decisin de complejidad relacionada. Una clase de complejidad tiene una definicin de la forma:
el conjunto de los problemas de decisin que pueden ser resueltos por una mquina M utilizando O(f(n)) del recurso R (donde n es el tamao de la entrada).

Relacin entre las principales clases de complejidad


La siguiente tabla muestra algunas de las clases de problemas (o lenguajes o gramticas) que se consideran en teora de la complejidad computacional. Cuando la clase X es un subconjunto estricto de Y, X aparece en la tabla bajo Y con una lnea slida unindolos. Cuando es subconjunto pero no se sabe si es estricto, la lnea es cortada y gris. Tcnicamente hablando, el corte entre problemas decidibles e indecidibles es tema de la Teora de la computabilidad, pero resulta interesante mencionarlos aqu para poner en perspectiva las clases de complejidad

Problema de decisin

Lenguaje recursivo enumerable

Problema indecidible

Problema decidible

ESPACIOEXP

TIEMPOEXP

ESPACIOP

Gramtica sensitiva al contexto

ESPACIOP-completo

Clase de complejidad

131

Co-NP

NP

BPP

BQP

NP-completo

NC

P-completo

Gramtica libre de contexto

Gramtica regular

Ejemplos
La clase NP es el conjunto de problemas de decisin que pueden ser resueltos en tiempo polinmico por una mquina de Turing no determinista. La clase PSPACE es el conjunto de problemas de decisin que pueden ser resueltos por una mquina de Turing determinista en espacio polinmico.

Problema de decisin

132

Problema de decisin
En teora de la computacin, un problema es un conjunto de frases de longitud finita que tienen asociadas frases resultantes tambin de longitud finita. Un problema de decisin es un problema en donde las respuestas posibles son s o no. Un ejemplo tpico de problema de decisin es la pregunta: Es un nmero entero dado primo? Una instancia de este problema sera: Es 17 primo? Un problema de decisin tambin se puede formalizar como el problema de decidir si una cierta frase pertenece a un conjunto dado de frases, tambin llamado lenguaje formal. El conjunto contiene exactamente las frases para las cuales la respuesta a la pregunta es positiva. La pregunta anterior sobre los nmeros primos se puede ver tambin como el lenguaje de todas las frases en el alfabeto {0, 1,..., 9} tales que el entero correspondiente es primo. Si existe un algoritmo que pueda decidir para cada posible frase de entrada si esa frase pertenece al lenguaje, entonces se dice que el problema es decidible, de otra forma se dice que es un problema indecidible. Cuando existe un algoritmo que puede responder positivamente cuando la frase est en el lenguaje, pero que corre indefinidamente cuando la frase no pertenece al lenguaje se dice que el problema es parcialmente decidible. En Teora de la computabilidad, se estudia qu lenguajes son decidibles con diferentes tipos de mquinas. En teora de la complejidad computacional se estudia cuntos recursos necesita un algoritmo decidible para ejecutar (recursos de tiempo, espacio, nmero de procesadores, tipo de mquina, etc.).

Ejemplos
Esos son algunos ejemplos de problemas de decisin expresados como lenguajes: Las frases sobre el alfabeto {a, b} que contienen alternadas las letras a y b. Las frases sobre el alfabeto {a, b, c} que contienen igual nmero de letras a y b. Las frases que describen un grafo con aristas etiquetadas con nmeros naturales que indican su longitud, dos vrtices del grafo y un camino en el grafo que es el camino ms corto entre esos dos vrtices. Las frases que describen una mquina de Turing y una cinta de entrada para esta mquina tal que la mquina se para en un tiempo finito al procesar esa entrada. Los problemas de decisin son interesantes dado que todos los problemas formales (que incluye tanto lgicos como matemticos) pueden ser redactados para que tomen la forma de un problema de decisin. Las soluciones al problema de decisin y al problema original se diferencian a lo sumo por un factor lineal.

Referencias
Definicin en Wolfram MathWorld [1] (en ingls)

Referencias
[1] http:/ / mathworld. wolfram. com/ DecisionProblem. html

Problema computacional

133

Problema computacional
En ciencia computacional terica, un problema abstracto o problema computacional es una relacin entre un conjunto de instancias y un conjunto de soluciones. Un problema abstracto permite establecer formalmente la relacin deseada entre la entrada de un algoritmo y su salida. Una solucin algortmica a un problema abstracto consiste de un algoritmo que por cada instancia del problema calcula al menos una solucin correspondiente en caso de haberla o expide un certificado de que no existe solucin alguna. Un problema abstracto se convierte en un problema concreto cuando las instancias y soluciones estn codificadas en forma de lenguajes formales. Los problemas abstractos suelen definirse en dos partes: en la primera se describe al conjunto de instancias y en la segunda se describe la solucin esperada para cada instancia. Por ejemplo, el problema de ordenacin de nmeros enteros se suele definir como sigue: Instancia: Una sucesin finita de nmeros enteros Solucin: Una permutacin de la sucesin de entrada tal que Aqu tanto el conjunto de instancias y el de soluciones es el mismo, pues se trata del conjunto de todas las sucesiones finitas de nmeros enteros. La relacin que hay entre ellos asigna a cada sucesin la nica permutacin tal que . Por ejemplo, tiene como solucin a . Una solucin algortmica al problema de ordenamiento es el ordenamiento de burbuja porque este algoritmo produce una solucin como salida cada vez que se le suministra una instancia como entrada.

Tipos de problemas abstractos


En un problema de decisin cada instancia tiene asociada exactamente una solucin "s" o "no". Los problemas de decisin quedan completamente determinados por el conjunto de instancias que tienen asociada la solucin "s". Por ejemplo, el problema de decidir si una grfica tiene o no un ciclo Hamiltoniano queda completamente determinado su conjunto de soluciones "s":

Con esta representacin el problema equivale a preguntar si una instancia

pertenece o no al conjunto donde

. En

general, los problemas de decisin siempre equivalen a decidir la proposicin

es el conjunto de

instancias con solucin "s". Una solucin algortmica para un problema de decisin es un algoritmo que calcula la funcin caracterstica de o equivalente:

En los problemas de bsqueda la relacin entre el conjunto de instancias y el de soluciones queda determinado por un predicado lgico que determina si es una solucin de . Dada una instancia el problema consiste en encontrar, si es que existe, una solucin proposicin trivial de de . Es decir, buscar el elemento que haga verdadera la . Cuando se fija el valor de ; es decir, nmero entero diferente de 1 y de y la solucin es nica, se dice que es un problema consiste en encontrar un factor no . En smbolos tal que divida exactamente a

matemtico. Por ejemplo, el problema de factorizacin de un nmero entero

Esta frmula simplemente est preguntando la existencia de un factor no trivial de . Una solucin algortmica a un problema de bsqueda viene dador por un algoritmo tal que es verdadera siempre y cuando exista solucin para , es decir, siempre calcula una solucin si es que esta existe. En el caso del problema de la factorizacin de enteros se cuenta con el algoritmo de la divisin por tentativa.

Problema computacional En un problema de optimizacin no solo se busca una solucin, sino que se busca "la mejor" de todas. Cada problema de optimizacin puede concebirse como un problema de bsqueda y una funcin , comnmente conocida como funcin objetivo, que determina la calidad de las soluciones. El problema de optimizacin (que a su vez es de bsqueda) consiste en encontrar la solucin maximice o minimice el valor de . Por ejemplo, el problema del viajante no solamente exige determinar si una grfica tiene o no un ciclo hamiltoniano, sino que adems pregunta cul es el ciclo hamiltoniano ms corto. En este caso el problema de bsqueda subyacente es encontrar un ciclo hamiltoniano cualquiera y la funcin objetivo mide la distancia recorrida por ese ciclo.

134

Referencias
Cormen, Thomas; Leiserson, Charles; Rivest, Ronald; Stein, Clifford (2009). Introduction to algorithms (3 edicin). Cambridge, Massachusetts: The MIT Press. ISBN 978-0-262-53305-8. S. Dasgupta, C.H. Papadimitriou, & U.V. Vazirani (2006). Algorithms [1]. McGraw-Hill Science/Engineering/Math. ISBN 978-0073523408.

Referencias
[1] http:/ / www. cs. berkeley. edu/ ~vazirani/ algorithms. html

Cdigo gentico
El cdigo gentico es un conjunto de normas por las que la informacin codificada en el material gentico (secuencias de ADN o ARN) se traduce en protenas (secuencias de aminocidos) en las clulas vivas. El cdigo define la relacin entre secuencias de tres nucletidos, llamadas codones, y aminocidos. Un codn se corresponde con un aminocido especfico. El ARN se basa en transportar un mensaje del ADN a la molcula correspondiente La secuencia del material gentico se compone de cuatro bases nitrogenadas distintas, que tienen una funcin equivalente a letras en el cdigo gentico: adenina (A), timina (T), guanina (G) y citosina (C) en el ADN y adenina (A), uracilo (U), guanina (G) y citosina (C) en el ARN. Debido a esto, el nmero de codones posibles es 64, de los cuales 61 codifican aminocidos (siendo adems uno de ellos el codn de inicio, AUG) y los tres restantes son sitios de parada (UAA, llamado ocre; UAG, llamado mbar; UGA, llamado palo). La secuencia de codones determina la secuencia aminoacdica de una protena en concreto, que tendr una estructura y una funcin especficas.
Serie de codones en un segmento de ARN. Cada codn se compone de tres nucletidos que codifican un aminocido especfico.

Cdigo gentico

135

Descubrimiento del cdigo gentico


Cuando James Watson, Francis Crick, Maurice Wilkins y Rosalind Franklin crearon el modelo de la estructura del ADN, se comenz a estudiar en profundidad el proceso de traduccin en las protenas. En 1955, Severo Ochoa y Marianne Grunberg-Manago aislaron la enzima polinucletido fosforilasa, capaz de sintetizar ARNm sin necesidad de modelo a partir de cualquier tipo de nucletidos que hubiera en el medio. As, a partir de un medio en el cual tan slo hubiera UDP (urdn difosfato) se sintetizaba un ARNm en el cual nicamente se repeta el cido urdico, el denominado poli-U (....UUUUU....). George Gamow postul que un cdigo de codones de tres bases deba ser el empleado por las clulas para codificar la secuencia aminoacdica, ya que tres es el nmero entero mnimo que con cuatro bases nitrogenadas distintas permiten ms de 20 combinaciones (64 para ser exactos).

El cdigo gentico.

Los codones constan de tres nucletidos fue demostrado por primera vez en el experimento de Crick, Brenner y colaboradores. Marshall Nirenberg y Heinrich J. Matthaei en 1961 en los Institutos Nacionales de Salud descubrieron la primera correspondencia codn-aminocido. Empleando un sistema libre de clulas, tradujeron una secuencia ARN de poli-uracilo (UUU...) y descubrieron que el polipptido que haban sintetizado slo contena fenilalanina. De esto se deduce que el codn UUU especfica el aminocido fenilalanina. Continuando con el trabajo anterior, Nirenberg y Philip Leder fueron capaces de determinar la traduccin de 54 codones, utilizando diversas combinaciones de ARNm, pasadas a travs de un filtro que contiene ribosomas. Los ARNt se unan a tripletes especficos. Posteriormente, Har Gobind Khorana complet el cdigo, y poco despus, Robert W. Holley determin la estructura del ARN de transferencia, la molcula adaptadora que facilita la traduccin. Este trabajo se bas en estudios anteriores de Severo Ochoa, quien recibi el premio Nobel en 1959 por su trabajo en la enzimologa de la sntesis de ARN. En 1968, Khorana, Holley y Nirenberg recibieron el Premio Nobel en Fisiologa o Medicina por su trabajo.

Transferencia de informacin
El genoma de un organismo se encuentra en el ADN o, en el caso de algunos virus, en el ARN. La porcin de genoma que codifica varias protenas o un ARN se conoce como gen. Esos genes que codifican protenas estn compuestos por unidades de trinucletidos llamadas codones, cada una de los cuales codifica un aminocido. Cada subunidad nucleotdica est formada por un fosfato, una desoxirribosa y una de las cuatro posibles bases nitrogenadas. Las bases purnicas adenina (A) y guanina (G) son ms grandes y tienen dos anillos aromticos. Las bases pirimidnicas citosina (C) y timina (T) son ms pequeas y slo tienen un anillo aromtico. En la configuracin en doble hlice, dos cadenas de ADN estn unidas entre s por puentes de hidrgeno en una asociacin conocida como emparejamiento de bases. Adems, estos puentes siempre se forman entre una adenina de una cadena y una timina de la otra y entre una citosina de una cadena y una guanina de la otra. Esto quiere decir que el nmero de residuos A y T ser el mismo en una doble hlice y lo mismo pasar con el nmero de residuos de G y C. En el ARN, la timina (T) se sustituye por uracilo (U), y la desoxirribosa por una ribosa. Cada gen codificante para protena se transcribe en una molcula plantilla, que se conoce como ARN mensajero o ARNm. ste, a su vez, se traduce en el ribosoma, en una cadena aminoacdica o polipeptdica. En el proceso de traduccin se necesita un ARN de transferencia ARNt especfico para cada aminocido con el aminocido unido a l covalentemente, guanosina trifosfato como fuente de energa y ciertos factores de traduccin. Los ARNt tienen

Cdigo gentico anticodones complementarios a los codones del ARNm y se pueden cargar covalentemente en su extremo 3' terminal CCA con aminocidos. Los ARNt individuales se cargan con aminocidos especficos por las enzimas llamadas aminoacil ARNt sintetasas, que tienen alta especificidad tanto por aminocidos como por ARNt. La alta especificidad de estas enzimas es motivo fundamental del mantenimiento de la fidelidad de la traduccin de protenas. Hay 4 = 64 combinaciones diferentes de codones que sean posibles con tripletes de tres nucletidos: los 64 codones estn asignados a aminocido o a seales de parada en la traduccin. Si, por ejemplo, tenemos una secuencia de ARN, UUUAAACCC, y la lectura del fragmento empieza en la primera U (convenio 5' a 3'), habra tres codones que seran UUU, AAA y CCC, cada uno de los cuales especfica un aminocido. Esta secuencia de ARN se traducir en una secuencia aminoacdica de tres aminocidos de longitud. Se puede comparar con la informtica, donde un codn se asemejara a una palabra, lo que sera el trozo estndar para el manejo de datos (como un aminocido a una protena), y un nucletido es similar a un bit, que sera la unidad ms pequea. (En la prctica, se necesitaran al menos 2 bits para representar un nucletido, y 6 para un codn, en un ordenador normal)...

136

Caractersticas
Universalidad
El cdigo gentico es compartido por todos los organismos conocidos, incluyendo virus y organelos, aunque pueden aparecer pequeas diferencias. As, por ejemplo, el codn UUU codifica el aminocido fenilalanina tanto en bacterias, como en arqueas y en eucariontes. Este hecho indica que el cdigo gentico ha tenido un origen nico en todos los seres vivos conocidos. Gracias a la gentica molecular, se han distinguido 22 cdigos genticos,[1] que se diferencian del llamado cdigo gentico estndar por el significado de uno o ms codones. La mayor diversidad se presenta en las mitocondrias, orgnulos de las clulas eucariotas que se originaron evolutivamente a partir de miembros del dominio Bacteria a travs de un proceso de endosimbiosis. El genoma nuclear de los eucariotas slo suele diferenciarse del cdigo estndar en los codones de iniciacin y terminacin.

Especificidad y continuidad
Ningn codn codifica ms de un aminocido, ya que, de no ser as, conllevara problemas considerables para la sntesis de protenas especficas para cada gen. Tampoco presenta solapamiento: los tripletes se hallan dispuesto de manera lineal y continua, de manera que entre ellos no existan comas ni espacios y sin compartir ninguna base nitrogenada. Su lectura se hace en un solo sentido (5' - 3'), desde el codn de iniciacin hasta el codn de parada. Sin embargo, en un mismo ARNm pueden existir varios codones de inicio, lo que conduce a la sntesis de varios polipptidos diferentes a partir del mismo transcrito.

Degeneracin
El cdigo gentico tiene redundancia pero no ambigedad (ver tablas de codones). Por ejemplo, aunque los codones GAA y GAG especifican los dos el cido glutmico (redundancia), ninguno especfica otro aminocido (no ambigedad). Los codones que codifican un aminocido pueden diferir en alguna de sus tres posiciones, por ejemplo, el cido glutmico se especfica por GAA y GAG (difieren en la tercera posicin), el aminocido leucina se especfica por los codones UUA, UUG, CUU, CUC, CUA y CUG (difieren en la primera o en la tercera posicin), mientras que en el caso de la serina, se especfica por UCA, UCG, UCC, UCU, AGU, AGC (difieren en la primera, segunda o tercera posicin). De una posicin de un codn se dice que es cuatro veces degenerada si con cualquier nucletido en esta posicin se especfica el mismo aminocido. Por ejemplo, la tercera posicin de los codones de la glicina (GGA, GGG, GGC, GGU) es cuatro veces degenerada, porque todas las sustituciones de nucletidos en este lugar son sinnimos; es

Cdigo gentico decir, no varan el aminocido. Slo la tercera posicin de algunos codones puede ser cuatro veces degenerada. Se dice que una posicin de un codn es dos veces degenerada si slo dos de las cuatro posibles sustituciones de nucletidos especifican el mismo aminocido. Por ejemplo, la tercera posicin de los codones del cido glutmico (GAA, GAG) es doble degenerada. En los lugares dos veces degenerados, los nucletidos equivalentes son siempre dos purinas (A/G) o dos pirimidinas (C/U), as que slo sustituciones transversionales (purina a pirimidina o pirimidina a purina) en dobles degenerados son antnimas. Se dice que una posicin de un codn es no degenerada si una mutacin en esta posicin tiene como resultado la sustitucin de un aminocido. Slo hay un sitio triple degenerado en el que cambiando tres de cuatro nucletidos no hay efecto en el aminocido, mientras que cambiando los cuatro posibles nucletidos aparece una sustitucin del aminocido. Esta es la tercera posicin de un codn de isoleucina: AUU, AUC y AUA, todos codifican isoleucina, pero AUG codifica metionina. En biocomputacin, este sitio se trata a menudo como doble degenerado. Hay tres aminocidos codificados por 6 codones diferentes: serina, leucina, arginina. Slo dos aminocidos se especifican por un nico codn; uno de ellos es la metionina, especificado por AUG, que tambin indica el comienzo de la traduccin; el otro es triptfano, especificado por UGG. Que el cdigo gentico sea degenerado es lo que determina la posibilidad de mutaciones sinnimas. La degeneracin aparece porque el cdigo gentico designa 20 aminocidos y la seal parada. Debido a que hay cuatro bases, los codones en triplete se necesitan para producir al menos 21 cdigos diferentes. Por ejemplo, si hubiera dos bases por codn, entonces slo podran codificarse 16 aminocidos (4=16). Y dado que al menos se necesitan 21 cdigos, 4 da 64 codones posibles, indicando que debe haber degeneracin. Esta propiedad del cdigo gentico lo hacen ms tolerante a los fallos en mutaciones puntuales. Por ejemplo, en teora, los codones cuatro veces degenerados pueden tolerar cualquier mutacin puntual en la tercera posicin, aunque el codn de uso sesgado restringe esto en la prctica en muchos organismos; los dos veces degenerados pueden tolerar una de las tres posibles mutaciones puntuales en la tercera posicin. Debido a que las mutaciones de transicin (purina a purina o pirimidina a pirimidina) son ms probables que las de transversin (purina a pirimidina o viceversa), la equivalencia de purinas o de pirimidinas en los lugares dobles degenerados aade una tolerancia a los fallos complementaria. Agrupamiento de codones por residuos aminoacdicos, volumen molar e hidropata Una consecuencia prctica de la redundancia es que algunos errores del cdigo gentico slo causen una mutacin silenciosa o un error que no afectar a la protena porque la hidrofilidad o hidrofobidad se mantiene por una sustitucin equivalente de aminocidos; por ejemplo, un codn de NUN (N =cualquier nucletido) tiende a codificar un aminocido hidrofbico. NCN codifica residuos aminoacdicos que son pequeos en cuanto a tamao y moderados en cuanto a hidropata; NAN codifica un tamao promedio de residuos hidroflicos; UNN codifica residuos que no son hidroflicos.[2][3] Estas tendencias pueden ser resultado de una relacin de las aminoacil ARNt sintetasas con los codones heredada un ancestro comn de los seres vivos conocidos. Incluso as, las mutaciones puntuales pueden causar la aparicin de protenas disfuncionales. Por ejemplo, un gen de hemoglobina mutado provoca la enfermedad de clulas falciformes. En la hemoglobina mutante un glutamato hidroflico (Glu) se sustituye por una valina hidrofbica (Val), es decir, GAA o GAG se convierte en GUA o GUG. La sustitucin de glutamato por valina reduce la solubilidad de -globina que provoca que la hemoglobina forme polmeros lineales unidos por interacciones hidrofbicas entre los grupos de valina y causando la deformacin falciforme de los eritrocitos. La enfermedad de las clulas falciformes no est causada generalmente por una mutacin de novo. Ms bien se selecciona en regiones de malaria (de forma parecida a la talasemia), ya que los individuos heterocigotos presentan cierta resistencia ante el parsito malrico Plasmodium (ventaja heterocigtica o heterosis). La relacin entre el ARNm y el ARNt a nivel de la tercera base se puede producir por bases modificadas en la primera base del anticodn del ARNt, y los pares de bases formados se llaman pares de bases wobble

137

Cdigo gentico (tambaleantes). Las bases modificadas incluyen inosina y los pares de bases que no son del tipo Watson-Crick U-G.

138

Usos incorrectos del trmino


La expresin "cdigo gentico" es frecuentemente utilizada en los medios de comunicacin como sinnimo de genoma, de genotipo, o de ADN. Frases como Se analiz el cdigo gentico de los restos y coincidi con el de la desaparecida, o se crear una base de datos con el cdigo gentico de todos los ciudadanos son cientficamente incorrectas. Es insensato, por ejemplo, aludir al cdigo gentico de una determinada persona, porque el cdigo gentico es el mismo para todos los individuos. Sin embargo, cada organismo tiene un genotipo propio, aunque es posible que lo comparta con otros si se ha originado por algn mecanismo de multiplicacin asexual.

Tabla del cdigo gentico estndar


El cdigo gentico estndar se refleja en las siguientes tablas. La tabla 1 muestra qu aminocido especfica cada uno de los 64 codones. La tabla 2 muestra qu codones especifican cada uno de los 20 aminocidos que intervienen en la traduccin. Estas tablas se llaman tablas de avance y retroceso respectivamente. Por ejemplo, el codn AAU es el aminocido asparagina, y UGU y UGC representan cistena (en la denominacin estndar por 3 letras, Asn y Cys, respectivamente). Ntese que el codn AUG codifica la metionina pero adems sirve de sitio de iniciacin; el primer AUG en un ARNm es la regin que codifica el sitio donde la traduccin de protenas se inicia. La siguiente tabla inversa indica qu codones codifican cada uno de los aminocidos.
Ala (A) Arg (R) Asn (N) Asp (D) Cys (C) Gln (Q) Glu (E) Gly (G) His (H) Ile (I) Leu (L) GCU, GCC, GCA, GCG Lys (K) AAA, AAG

CGU, CGC, CGA, CGG, AGA, AGG Met (M) AUG AAU, AAC GAU, GAC UGU, UGC CAA, CAG GAA, GAG GGU, GGC, GGA, GGG CAU, CAC AUU, AUC, AUA UUA, UUG, CUU, CUC, CUA, CUG Parada UAG, UGA, UAA Phe (F) UUU, UUC Pro (P) Sec (U) Ser (S) CCU, CCC, CCA, CCG UGA UCU, UCC, UCA, UCG, AGU, AGC

Thr (T) ACU, ACC, ACA, ACG Trp (W) UGG Tyr (Y) UAU, UAC Val (V) GUU, GUC, GUA, GUG

Comienzo AUG

Aminocidos 21 y 22
Exiten otros dos aminocidos codificados por el cdigo gentico en algunas circunstancias y en algunos organismos. Son la selenocistena y la pirrolisina. La selenocistena (Sec/U)[4] es un aminocido presente en multitud de enzimas (glutatin peroxidasas, tetraiodotironina 5' deiodinasas, tioredoxina reductasas, formiato deshidrogenasas, glicina reductasas y algunas hidrogenasas). Est codificado por el codn UGA (que normalmente es de parada) cuando estn presentes en la secuencia los elementos SECIS (Secuencia de insercin de la seleniocistena). El otro aminocido, la pirrolisina (Pyl/O),[5][6] es un aminocido presente en enzimas metablicas de arqueas metangenas. Est codificado por el codn UAG (que normalmente es de parada) cuando estn presentes en la secuencia los elementos PYLIS (Secuencia de insercin de la pirrolisina).

Cdigo gentico

139

Excepciones a la universalidad
Como se mencion con anterioridad, se conocen 22 cdigos genticos. He aqu algunas diferencias con el estndar:
Mitocondrias de vertebrados AGA Ter AGG Ter AUA Met UGA Trp Mitocondrias de invertebrados AGA Ser AGG Ser * * M W S S AnGyBeL AUA Met UGA Trp M W

AGG Ausente en Drosophila Mitocondrias de levaduras AUA Met CUU Thr CUC Thr CUA Thr CUG Thr UGA Trp CGA Ausente CGC Ausente Ciliados, Dasycladaceae y Hexamita (ncleo) UAA Gln UAG Gln Mitocondrias de mohos, protozoos y Coelenterate Mycoplasma y Spiroplasma (ncleo) Mitocondrias de equinodermos y platelmintos UGA Trp Q Q W M T T T T W

AAA Asn AGA Ser AGG Ser UGA Trp

N S S W C S G G M W N S S Y

Euplotidae (ncleo) Endomycetales (ncleo) Mitocondrias de Ascidiacea

UGA Cys CUG Ser AGA Gly AGG Gly AUA Met UGA Trp

Mitocondrias de platelmintos (alternativo)

AAA Asn AGA Ser AGG Ser UAA Tyr UGA W

Cdigo gentico

140
Blepharisma (ncleo) Mitocondrias de Chlorophyceae Mitocondrias de trematodos UAG Gln TAG Leu TGA Trp ATA Met AGA Ser AGG Ser AAA Asn Mitocondrias de Scenedesmus obliquus TCA Ter TAG Leu Q L W M S S N * L

El origen del cdigo gentico


A pesar de las variaciones que existen, los cdigos genticos utilizados por todas las formas conocidas de vida son muy similares. Esto sugiere que el cdigo gentico se estableci muy temprano en la historia de la vida y que tiene un origen comn en las formas de vida actuales. Anlisis filogentico sugiere que las molculas ARNt evolucionaron antes que el actual conjunto de aminoacil-ARNt sintetasas.[7] El cdigo gentico no es una asignacin aleatoria de los codones a aminocidos.[8] Por ejemplo, los aminocidos que comparten la misma va biosinttica tienden a tener la primera base igual en sus codones[9] y aminocidos con propiedades fsicas similares tienden a tener similares a codones.[10][11] Experimentos recientes demuestran que algunos aminocidos tienen afinidad qumica selectiva por sus codones.[12] Esto sugiere que el complejo mecanismo actual de traduccin del ARNm que implica la accin ARNt y enzimas asociadas, puede ser un desarrollo posterior y que, en un principio, las protenas se sintetizaran directamente sobre la secuencia de ARN, actuando ste como ribozima y catalizando la formacin de enlaces peptdicos (tal como ocurre con el ARNr 23S del ribosoma). Se ha planteado la hiptesis de que el cdigo gentico estndar actual surgiera por expansin biosinttica de un cdigo simple anterior. La vida primordial pudo adicionar nuevos aminocidos (por ejemplo, subproductos del metabolismo), algunos de los cuales se incorporaron ms tarde a la maquinaria de codificacin gentica. Se tienen pruebas, aunque circunstanciales, de que formas de vida primitivas empleaban un menor nmero de aminocidos diferentes,[13] aunque no se sabe con exactitud que aminocidos y en que orden entraron en el cdigo gentico. Otro factor interesante a tener en cuenta es que la seleccin natural ha favorecido la degeneracin del cdigo para minimizar los efectos de las mutaciones y es debido a la interaccin de dos tomos distintos en la reaccin[14] . Esto ha llevado a pensar que el cdigo gentico primitivo podra haber constado de codones de dos nucletidos, lo que resulta bastante coherente con la hiptesis del balanceo del ARNt durante su acoplamiento (la tercera base no establece puentes de hidrgeno de Watson y Crick).

Cdigo gentico

141

Referencias
[1] [2] [3] [4] The Genetic Codes (http:/ / www. ncbi. nlm. nih. gov/ Taxonomy/ Utils/ wprintgc. cgi). Yang et al. 1990. In Reaction Centers of Photosynthetic Bacteria. M.-E. Michel-Beyerle. (Ed.) (Springer-Verlag, Germany) 209-218 Genetic Algorithms and Recursive Ensemble Mutagenesis in Protein Engineering http:/ / www. complexity. org. au/ ci/ vol01/ fullen01/ html/ IUPAC-IUBMB Joint Commission on Biochemical Nomenclature (JCBN) and Nomenclature Committee of IUBMB (NC-IUBMB) (1999). Newsletter 1999 (http:/ / www. chem. qmul. ac. uk/ iubmb/ newsletter/ 1999/ item3. html) (reprint, with permission). European Journal of Biochemistry 264 (2): pp.607609. doi: 10.1046/j.1432-1327.1999.news99.x (http:/ / dx. doi. org/ 10. 1046/ j. 1432-1327. 1999. news99. x). . [5] John F. Atkins and Ray Gesteland (2002).. The 22nd Amino Acid. Science 296 (5572): 14091410.. [6] Krzycki J (2005).. The direct genetic encoding of pyrrolysine. Curr Opin Microbiol 8 (6): 706712.. [7] De Pouplana, L.R.; Turner, R.J.; Steer, B.A.; Schimmel, P. (1998). Genetic code origins: tRNAs older than their synthetases? (http:/ / www. pnas. org/ cgi/ content/ full/ 95/ 19/ 11295). Proceedings of the National Academy of Sciences 95 (19): pp.11295. doi: 10.1073/pnas.95.19.11295 (http:/ / dx. doi. org/ 10. 1073/ pnas. 95. 19. 11295). PMID 9736730 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 9736730). . [8] Freeland SJ, Hurst LD (September 1998). The genetic code is one in a million (http:/ / link. springer-ny. com/ link/ service/ journals/ 00239/ bibs/ 47n3p238. html). J. Mol. Evol. 47 (3): pp.23848. doi: 10.1007/PL00006381 (http:/ / dx. doi. org/ 10. 1007/ PL00006381). PMID 9732450 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 9732450). . [9] Taylor FJ, Coates D (1989). The code within the codons. BioSystems 22 (3): pp.17787. doi: 10.1016/0303-2647(89)90059-2 (http:/ / dx. doi. org/ 10. 1016/ 0303-2647(89)90059-2). PMID 2650752 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 2650752). [10] Di Giulio M (October 1989). The extension reached by the minimization of the polarity distances during the evolution of the genetic code. J. Mol. Evol. 29 (4): pp.28893. doi: 10.1007/BF02103616 (http:/ / dx. doi. org/ 10. 1007/ BF02103616). PMID 2514270 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 2514270). [11] Wong JT (February 1980). Role of minimization of chemical distances between amino acids in the evolution of the genetic code. Proc. Natl. Acad. Sci. U.S.A. 77 (2): pp.10836. doi: 10.1073/pnas.77.2.1083 (http:/ / dx. doi. org/ 10. 1073/ pnas. 77. 2. 1083). PMID 6928661 (http:/ / www. ncbi. nlm. nih. gov/ pubmed/ 6928661). [12] Knight, R.D. and Landweber, L.F. (1998). Rhyme or reason: RNA-arginine interactions and the genetic code. (http:/ / www. ncbi. nlm. nih. gov/ entrez/ query. fcgi?cmd=Retrieve& db=pubmed& dopt=Abstract& list_uids=9751648) Chemistry & Biology 5(9), R215-R220. PDF version of manuscript (http:/ / bayes. colorado. edu/ Papers/ chmbio98. pdf) [13] Brooks, Dawn J.; Fresco, Jacques R.; Lesk, Arthur M.; and Singh, Mona. (2002). Evolution of Amino Acid Frequencies in Proteins Over Deep Time: Inferred Order of Introduction of Amino Acids into the Genetic Code (http:/ / mbe. oupjournals. org/ cgi/ content/ full/ 19/ 10/ 1645). Molecular Biology and Evolution 19, 1645-1655. [14] Freeland S.J.; Wu T. and Keulmann N. (2003) The Case for an Error Minimizing Genetic Code. (http:/ / www. ncbi. nlm. nih. gov/ entrez/ query. fcgi?cmd=Retrieve& db=pubmed& dopt=Abstract& list_uids=14604186) Orig Life Evol Biosph. 33(4-5), 457-77.

Enlaces externos
Servicios online para convertir DNA en protena DNA to Amino Acid Conversion (http://www.geneseo.edu/~eshamb/php/dna.php) DNA Sequence -> Protein Sequence converter (http://bioinformatics.picr.man.ac.uk/bioinf/tyates. jsp?page=3) DNA to protein translation (6 frames/17 genetic codes) (http://insilico.ehu.es/translate/) Tablas del cdigo gentico The Genetic Codes Genetic Code Tables (http://www.ncbi.nlm.nih.gov/Taxonomy/Utils/wprintgc.cgi) Revisiones Niremberg y Khorana, los hackers del ADN (http://oliba.uoc.edu/adn/index.php?option=com_content& view=article&id=116&Itemid=246&lang=es), en el Museo Virtual Interactivo sobre la Gentica y el ADN.

Fuentes y contribuyentes del artculo

142

Fuentes y contribuyentes del artculo


Cdigo Fuente: http://es.wikipedia.org/w/index.php?oldid=61250551 Contribuyentes: Addicted04, Aleator, Camilo, Comae, Cookie, Diegusjaimes, Digigalos, El Pantera, Elwikipedista, Estevoaei, Fercufer, Hameryko, Helmy oved, Honch, JViejo, Jkbw, Jorge c2010, Jynus, ManuelGR, Marb, Moriel, PACO, Raimundo Pastor, Suisui, SuperBraulio13, Tomatejc, Warko, Yakoo, ngel Luis Alfaro, 42 ediciones annimas Codificacin Fuente: http://es.wikipedia.org/w/index.php?oldid=62032165 Contribuyentes: Biasoli, DJ Nietzsche, Diegusjaimes, Fercufer, Halfdrag, Jmvkrecords, Jorge c2010, Matdrodes, Moriel, Raimundo Pastor, Warko, Yakoo, 6 ediciones annimas Codificacin (memoria) Fuente: http://es.wikipedia.org/w/index.php?oldid=57430680 Contribuyentes: DJ Nietzsche, 4 ediciones annimas Cognicin Fuente: http://es.wikipedia.org/w/index.php?oldid=61536292 Contribuyentes: 672, Acratta, Banfield, BuenaGente, Catarina Inostroza, Christopher.rafael, Daniel Tenerife, Diegusjaimes, Ebrenc, Elnuncabienponderado, Furado, GermanX, Hprmedina, JMCC1, Jkbw, Joarsolo, Jorge c2010, Kavor, Laura Fiorucci, Leonpolanco, Lucien leGrey, MONIMINO, Magister Mathematicae, Marilyn Mora, Matdrodes, Mercenario97, NestorFS, Netito777, PauloCesarCoronado, Praxilon, Retama, RoyFocker, Sebrev, Sergio Andres Segovia, Silvialon, Technopat, Waka Waka, Workforce, ZEN ic, 71 ediciones annimas Informacin Fuente: http://es.wikipedia.org/w/index.php?oldid=61716020 Contribuyentes: Acratta, Alba Vallejo, AldanaN, Alejandro bera, Alphabravotango, Amajave, Amanuense, Angelito7, Anna-uv, Annie de la UIB, AnselmiJuan, Antonorsi, Anual, Arcibel, Aromera, Arquisoft2, Ascnder, Aipni-Lovrij, Bernard, Beto29, Biasoli, BlackBeast, Bonnot, BrWriter2, Breydi, Camimenca, Chewie, Ciberprofe, Ciencia Al Poder, Claudiame, Clementito, Csoliverez, Dangelin5, David0811, Davius, Delphidius, Diegusjaimes, Dorieo, Dreitmen, Echooo, Eduardosalg, Emiduronte, Evoluzion, FAR, Fernando Estel, Filipo, Frigotoni, Gaeddal, Garber, Globalphilosophy, Guachupei, HIPATIA2006, HUB, Helmy oved, Hombresinombre, Hprmedina, Icvav, Igna, Ignacio Icke, Ivonneth, J.M.Domingo, Jarisleif, Javierito92, Jesuja, Jkbw, Jmvgpartner, Joaquin.ivona, Jondel, Jorgechp, Julian Colina, KLosma, Komputisto, LP, Laura Fiorucci, Leonpolanco, Llopis73, Luckas Blade, Lukosa09, Luvalbia, Macuarropaellas, Magister Mathematicae, Mahadeva, Manuel Trujillo Berges, Matdrodes, Momoelf, Montgomery, Moriel, Muro de Aguas, Mutari, NeVic, Netito777, Nicop, Nixn, PACO, PhJ, Porao, Plux, Queninosta, Rafa3040, Rastrojo, Raulvalderrama, Ravave, Rdaniels, Resped, Ricardogpn, Roberto Fiadone, Rodrigo Cornejo, RoyFocker, Rubpe19, SUL, Savh, Sdepares, Sebrev, Serlliolino, Soniautn, Soulreaper, Stefanyloraine, SuperBraulio13, Taichi, Tano4595, Tatubi, Technopat, Tirithel, U-Alex, Vatelys, Veon, Vic Fede, Vitamine, Wilfredor, 482 ediciones annimas Teora de la informacin Fuente: http://es.wikipedia.org/w/index.php?oldid=61653332 Contribuyentes: 119-MAD2-X91.libre.retevision.es, 141-MAD2-X90.libre.retevision.es, 156-MAD2-X69.libre.retevision.es, 166-MAD2-X72.libre.retevision.es, Acratta, AstroNomo, BetoCG, CaesarExcelsus, Davius, Diegusjaimes, Earnaor, Edgar, Edub, Elisardojm, Eloy, Execoot, Fercufer, Frandzi.rangel, Gbsuar, Interwiki, Ivan.Romero, Jesuja, Jkbw, Julian leonardo paez, LP, Lalaconyforever, Loekiller, ManuelGR, Nerika, Nicoletis, PACO, Paintman, Pompilio Zigrino, Rcamacho, Sebasg37, SuperBraulio13, Technopat, ULIF050020014, Ucevista, Valdrik, Velual, conversion script, 47 ediciones annimas Entropa (informacin) Fuente: http://es.wikipedia.org/w/index.php?oldid=61025812 Contribuyentes: Acratta, AlfonsoERomero, Alicia M. Canto, Allforrous, Barcex, BeatLeoTB, Clementito, Correogsk, David0811, Davius, Dogor, Dortegaparrilla, Earnaor, Elchureee, Ezarate, Fercufer, GermanX, GiL87, Gizmo II, Humbefa, J.M.Domingo, Javg, Jesuja, Jorge c2010, Jose figueredo, Juan Mayordomo, Loqu, M1ss1ontomars2k4, Pabloab, Ploncomi, Plux, Saloca, Srbanana, Stardust, Tano4595, Wewe, Wiki-luismex, Yaselc, Yuri Grille Orce, 99 ediciones annimas Informacin mutua Fuente: http://es.wikipedia.org/w/index.php?oldid=59583400 Contribuyentes: Davius, Fercufer, Pinar, Salvamoreno, Solarapex, Varano, 2 ediciones annimas Variable aleatoria Fuente: http://es.wikipedia.org/w/index.php?oldid=62459808 Contribuyentes: Acratta, Alex15090, Allforrous, AlvaroEstadisticaCEU, Camilo, Carlos Manuel Nina, CayoMarcio, Cogliatti juan i, Dany yun, Davidmosen, Davius, Diegusjaimes, Emijrp, Estadistica 2009, Evaromero, Ezarate, Farisori, Gafotas, GermanX, Gins90, Greek, Guilloip, Gkhan, Hiperfelix, Huhsunqu, Humbefa, Humberto, Icvav, Isha, JViejo, JakobVoss, Jkbw, Joseangelmadrid, Joseaperez, Juan Mayordomo, Juancdg, Laura Fiorucci, Luisedu90, Matdrodes, Metrnomo, Neodop, Numbo3, Pino, Plux, Rastrojo, Samcienfuegos, Tartaglia, Wewe, Ybenitez, 119 ediciones annimas Incertidumbre (metrologa) Fuente: http://es.wikipedia.org/w/index.php?oldid=61149216 Contribuyentes: ngel Luis Alfaro, 1 ediciones annimas Incertidumbre de calibracin Fuente: http://es.wikipedia.org/w/index.php?oldid=61673105 Contribuyentes: Hprmedina, Mandramas, Pedritojfk Tolerancia de fabricacin Fuente: http://es.wikipedia.org/w/index.php?oldid=59945555 Contribuyentes: Alfredobi, Daniel De Leon Martinez, David Perez, David0811, Davius, Demonacho, Diegusjaimes, Edmenb, FrancoGG, Gerkijel, Helmy oved, Honmingjun, Humbefa, Hctor Guido Calvo, JMCC1, Jkbw, JorgeGG, Lin linao, MarcoAurelio, Netito777, NoCoin, Retorcido, SuperBraulio13, Tallers gervi, Tortillovsky, Vitamine, Yrithinnd, Zanaqo, 35 ediciones annimas Precisin Fuente: http://es.wikipedia.org/w/index.php?oldid=60515802 Contribuyentes: Acratta, Aparejador, Camilo, Cestuila, Dermot, Diegusjaimes, Digigalos, Dnu72, Dodo, Dorieo, Felipealvarez, GermanX, HUB, Jaraga, Jesuja, Jkbw, Jorge c2010, Lcampospousa, Paintman, Roberto Fiadone, Tano4595, Tortillovsky, Vitamine, 36 ediciones annimas Exactitud Fuente: http://es.wikipedia.org/w/index.php?oldid=57957965 Contribuyentes: Aparejador, Dnu72, Gtz, Matdrodes, Portland, Plux, Savh, ngel Luis Alfaro, 25 ediciones annimas Reproducibilidad Fuente: http://es.wikipedia.org/w/index.php?oldid=60833823 Contribuyentes: Acratta, Angelito7, Aparejador, Beto29, Digigalos, FAL56, HUB, Pilaf, Shalbat, ngel Luis Alfaro, 10 ediciones annimas Entropa Fuente: http://es.wikipedia.org/w/index.php?oldid=62381212 Contribuyentes: .Jos, 2rombos, Aida Ivars, Alefisico, Alejandrovh, Alexav8, Amrespi, Antoncinho, Arcibel, ArielRambo, Aurius, Backmind, Biasoli, CaesarExcelsus, Cdlp, Centroamericano, CleverChemist, Correogsk, Danielba894, Davius, Diegusjaimes, Divalino, Dronkit, Echani, Edslov, Ensada, Furti, Gallowolf, GermanX, HUB, Hac, Halfdrag, Hernan3009, Jjpb1, Jkbw, Jlu85, Jmcalderon, Jorge 2701, Jorge c2010, Jose.fcfraga, Julie, Karshan, Kismalac, Kved, Loqu, M1ss1ontomars2k4, Madalberta, Maldoror, Manuel SH, Matdrodes, Mindeye, Muro de Aguas, Mutari, Nestor Makhno, Nizampop, Oconel, Omega, Ortisa, Pacomeco, Paradoja, Pello, Ploncomi, Plux, Rafa3040, Rafaellopezfernandez, Raulshc, Rjgalindo, Roberrpm, Savh, Sgiraldoa, Siabef, Taichi, Tano4595, Tostadora, UA31, Unificacion, Urdangaray, Vitamine, Xosema, YOUZEV, Yix, Yonatan smith, neas, 257 ediciones annimas Segundo principio de la termodinmica Fuente: http://es.wikipedia.org/w/index.php?oldid=61681358 Contribuyentes: Acratta, Banfield, Bigsus, Cyrano77, DJ Nietzsche, Darsan 23, Davius, Delphidius, Diegusjaimes, Diosa, Doctor C, Dr Juzam, Ensada, Gorka17, Gusgus, Gtz, Helmy oved, Hernancarrascoa, Ingolll, Jkbw, Jorge c2010, Joseaperez, LlamaAl, Matdrodes, Nihilo, Pjsw88, Ploncomi, Prez, RoyFocker, Santiperez, Soulreaper, Sr.ferran, Srbanana, Tano4595, Tirithel, UA31, Wikilptico, XalD, 112 ediciones annimas Constante de Boltzmann Fuente: http://es.wikipedia.org/w/index.php?oldid=61388856 Contribuyentes: 19jp87, Af3, Anual, BlackBeast, Carlos Quesada, Correogsk, Diegusjaimes, Genba, Grillitus, Halfdrag, Humberto, LP, Mancerinio, Mercenario97, MiGUi, Ninrouter, Oscar ., Raulshc, Ricardogpn, SirSlither, Tamorlan, Xuankar, 31 ediciones annimas Neguentropa Fuente: http://es.wikipedia.org/w/index.php?oldid=61060993 Contribuyentes: Airunp, Alejandrosanchez, Algarabia, Allforrous, Alrik, Atalaia, Davius, Emijrp, Feministo, Gcorreac, GermanX, Gusama Romero, Hprmedina, Julie, Kael, LP, Maldoror, Pa-tovar, Sebasg37, Shevek, Tamorlan, Tomatejc, Tubet, 16 ediciones annimas Ciclo de Carnot Fuente: http://es.wikipedia.org/w/index.php?oldid=61460933 Contribuyentes: Albertofcasuso, Alexquendi, Alhen, Carabs, Claudio hurtado, Diegusjaimes, Digigalos, Espince, Ingolll, Iuliusfox, Jkbw, Ketakopter, Laura Fiorucci, Maldoror, MarcoAurelio, Matdrodes, Mcapdevila, Millars, Nachoj, Netito777, Ortisa, Plux, Richiguada, Superzerocool, Tano4595, Troodon, Walter closser, 62 ediciones annimas Mquina de Carnot Fuente: http://es.wikipedia.org/w/index.php?oldid=56389241 Contribuyentes: Arkwatem, CommonsDelinker, Dalo86, GermanX, Glenn, Lourdes Cardenal, Mambrumotumbo, Pan con queso, Taichi, Tano4595, Wricardoh, Yeray-muaddib, 11 ediciones annimas Energa de Gibbs Fuente: http://es.wikipedia.org/w/index.php?oldid=61842490 Contribuyentes: .Jos, .Sergio, Acratta, Andresjk, Aranka, Banfield, BlackBeast, Bryant1410, Chayinator, Chizpa.v, Davius, Diegusjaimes, Dreitmen, Eamezaga, Edgar.lucena, Erik Mora, Estelamargentina12, Ingolll, Jaluj, Javierito92, Jorge c2010, Jurock, Lukadada, Lygeum, MadriCR, Mansoncc, Matdrodes, Mathias536, Muro de Aguas, Mutari, OboeCrack, Pablo R. Ojeda, Raulshc, Ricardogpn, Rizobio, Rjgalindo, Rubpe19, Santiperez, Santisis, Srbanana, Tano4595, Tostadora, 118 ediciones annimas Cdigo morse Fuente: http://es.wikipedia.org/w/index.php?oldid=61543395 Contribuyentes: Acratta, Albasmalko, Anagarmol, Angel GN, Annuski, Aofvilla, Aparejador, Armin76, Aipni-Lovrij, Baloo svq, Barrie, Bryanpvz, CASF, Camilo, Chris K, Cobalttempest, Cookie, Ctrl Z, Cuidrouy, Cyber-It, DJ Nietzsche, Daguero, Daniel G., DaveFX, David0811, Diegusjaimes, Donner, Drjackzon, Ea5bcx, Eduardosalg, Efepe, Emijrp, Ente X, FCPB, Fadesga, Felipealvarez, Fokerman, Foundling, Furti, Greek, Gusgus, Halfdrag, Humberto, Igna, Ikaru, Isha, JMCC1, JMPerez, JViejo, Jalber ferney, Javierito92, Jkbw, JorgeGG, Julirc, K19, KErosEnE, Kojie, Kuronokoneko, Laura Fiorucci, Leonpolanco, Lironcareto, Livajo, Lucien leGrey, Ludor, MILEPRI, Mabema1, Magister Mathematicae, Mandramas, Mansoncc, Manuelt15, Manuelvh, Manw, Masterluke, Matdrodes, Mejler, Mel 23, Mercenario97, Miguel ngel Corral Peltzer, Miniush,

Fuentes y contribuyentes del artculo


Mpeinadopa, Muro de Aguas, Mutari, Netito777, Nihilo, Nioger, Nixn, Numbo3, OboeCrack, Oscar ., Ositoster, PACO, Pablogger, Pato360, PeiT, Petruss, Poco a poco, Plux, Ramjar, Ravave, Rbidegain, Relampague, Ricardogpn, Rosarino, Rubpe19, Rge, Sanbec, Savh, Sejomagno, SuperBraulio13, Taichi, Takashi kurita, Technopat, Thr41N, Tomatejc, Tortillovsky, Triku, Tripy, VanKleinen, Variable, Vbenedetti, Velual, Vitamine, Wikilptico, Wilco346, Wilfredor, XalD, rico Jnior Wouters, 399 ediciones annimas Algoritmo de Huffman Fuente: http://es.wikipedia.org/w/index.php?oldid=56393184 Contribuyentes: CarlosHoyos, Daniel G., Dga-ada08, Diegusjaimes, Farisori, Jac, Jacobo Tarrio, LordT, Ogre, Platonides, Ssola, Tano4595, 9 ediciones annimas Deflacin (algoritmo) Fuente: http://es.wikipedia.org/w/index.php?oldid=41051743 Contribuyentes: Atreides2k5, Daniel G., Gothmog, Ninovolador, Niqueco, PabloCastellano, Shooke, Wikisilki, 7 ediciones annimas Entropa condicional Fuente: http://es.wikipedia.org/w/index.php?oldid=57608662 Contribuyentes: Dangelin5, Davius, 1 ediciones annimas Teorema de Bayes Fuente: http://es.wikipedia.org/w/index.php?oldid=61646067 Contribuyentes: ALBERTOPMONT, Aiax, Akma72, Alfredobi, Ascnder, Belgrano, Cgb, Cobalttempest, Creosota, Dianai, Diegusjaimes, Dodo, Est JuanPe Emma, Farisori, Fjcaba, GermanX, Hssalinas, Jkbw, Joseaperez, Juan Mayordomo, Leonpolanco, Matdrodes, Orla725, Revenga10V, Roalag, Rosarino, Rrecillas, Stifax, Stoni, Taichi, Tano4595, Triku, Vitamine, Vivero, 86 ediciones annimas Cifrado (criptografa) Fuente: http://es.wikipedia.org/w/index.php?oldid=61656718 Contribuyentes: Acratta, Chewie, Death Master, Ferbr1, Fercufer, Marco Regueira, Mcapdevila, 6 ediciones annimas Criptoanlisis Fuente: http://es.wikipedia.org/w/index.php?oldid=62166728 Contribuyentes: Acratta, Alexav8, Chewie, Coincazo, Davius, Death Master, Dodo, Fercufer, GermanX, Iqgomez, Jamawano, Javier Carro, Jjvaca, Julianmejio, Lasai, Lecuona, LogC, Luis.osa, Mandramas, Matdrodes, Neodop, Penquista, Poc-oban, RauBn, Raul.lara, Sanbec, SpeedyGonzalez, Swicher, Tano4595, Template namespace initialisation script, XBaDx, Xerox 5B, 17 ediciones annimas Distancia de unicidad Fuente: http://es.wikipedia.org/w/index.php?oldid=56355615 Contribuyentes: Fercufer, 2 ediciones annimas Ratio de entropa Fuente: http://es.wikipedia.org/w/index.php?oldid=56733562 Contribuyentes: Fercufer, Wikielwikingo, 1 ediciones annimas Proceso estocstico Fuente: http://es.wikipedia.org/w/index.php?oldid=62041433 Contribuyentes: Acratta, Akhram, BludgerPan, Correogsk, Davius, Diegusjaimes, Elwikipedista, Fanattiq, Farisori, Gaeddal, GermanX, Grillitus, Hhmb, Hlnodovic, Humbefa, J. A. Glvez, Javg, Jkbw, Juan Manuel, Kordas, LuchoX, NicolasAlejandro, Paintman, Phirosiberia, Resped, Rsg, Waykicha, 45 ediciones annimas Distribucin de probabilidad Fuente: http://es.wikipedia.org/w/index.php?oldid=61899671 Contribuyentes: Acratta, Af3, AlfonsoERomero, Artorius, Carlosfran2ceu, Centroamericano, Cflm001, Cgb, CivilianVictim, Ctrl Z, Davius, Diegusjaimes, Dnu72, Dodo, Enen, Evra83, Farisori, Germanrinconrey, Humbefa, Immersia, Interwiki, J.delanoy, JakobVoss, JorgeGG, Joseaperez, Juan Mayordomo, Juanwrs, Juliabis, Kved, Lucien leGrey, Luiswtc73, Maldoror, Manuelt15, Manw, Maquita, Matdrodes, MegaBlackDad, Miss Manzana, Moriel, Neozonik, Nicoguaro, PabloAlv, PabloCastellano, Paulrc, Peregrino, Petruss, Poco a poco, Rubpe19, Sabbut, Sardur, Sebrev, Tano4595, Tokvo, Umarth8, Vitamine, Zahualli, 124 ediciones annimas Aleatoriedad Fuente: http://es.wikipedia.org/w/index.php?oldid=61567425 Contribuyentes: 333, Acratta, Antipatico, Antn Francho, Armando-Martin, Ary29, Baiji, BlackSalamander, Cgb, Dani goo, Diegusjaimes, Erzbischof, FCA00000, Florendas, Gerwoman, Gizmo II, Gothmog, Hlnodovic, Humbefa, Humberto, Invadinado, Jkbw, Jorge c2010, Josell2, Juan Mayordomo, Lasneyx, Locutus Borg, Magister Mathematicae, Mendozar80, Morza, Nihilo, PatricioAlexanderWiki, Raimundo Pastor, Retama, Roberto Fiadone, Soulreaper, Tortillovsky, Tucto, Varano, Waka Waka, Yrithinnd, 43 ediciones annimas Teora de la computabilidad Fuente: http://es.wikipedia.org/w/index.php?oldid=59856063 Contribuyentes: AchedDamiman, Acratta, Airunp, Ascnder, Carutsu, Chien, Diegusjaimes, Dodo, Dogor, Elmolinari, FAR, Farisori, Gafotas, Gauleng, Honorio madrigal, Hctor Guido Calvo, Irbian, Isha, JMCC1, Jmm79, Leitzaran, Lucianobello, Marsa, Muro de Aguas, Olea, Oscar ., Richy, Tamorlan, Zanaqo, 32 ediciones annimas Teora de la complejidad computacional Fuente: http://es.wikipedia.org/w/index.php?oldid=62504979 Contribuyentes: -jem-, AchedDamiman, Alexav8, AlfonsoERomero, Argentumm, Ascnder, Azevedo bandeira, Barcex, Cesarsorm, Elabra sanchez, Farisori, Fer31416, Focojoaco, Gato ocioso, Halfdrag, Ivan.Romero, Jstitch, Juan Mayordomo, LuqueII, Macarse, Martin78B, Maxidigital, Moriel, Naki, Nicolasdiaz, Pablohe, RoyFocker, Ruben.mg, Surscrd, Tano4595, Uruk, V.mendiola, Zild, 68 ediciones annimas Teora de la computacin Fuente: http://es.wikipedia.org/w/index.php?oldid=61819275 Contribuyentes: Alan.lorenzo, Ascnder, Balderai, Cinabrium, DIKSON, Dark, Diegusjaimes, Domaniom, El Pitufo, Elsenyor, Farisori, Fer31416, Ferbrunnen, Gafotas, Helmy oved, Ingenioso Hidalgo, Ivan.Romero, Jorgechp, Jstitch, Julian Mendez, Kn, Mansoncc, Manw, Mcapdevila, Melocoton, Niceforo, Pabos95, Plux, Racso, Rauldragon, SharkWolf123, Sir Magician, SpeedyGonzalez, SuperBraulio13, Tano4595, Technopat, UA31, Valentin estevanez navarro, 61 ediciones annimas Ciencias de la computacin Fuente: http://es.wikipedia.org/w/index.php?oldid=62487754 Contribuyentes: -jem-, 217-126-150-34.uc.nombres.ttd.es, Acratta, Agviquez86, AldanaN, Aledesanfer95, AlfonsoERomero, Andreasmperu, AndyVec, Antonorsi, Antn Francho, Apaz, Aquila ltda, Balderai, Brainup, Cedecomsa, Chester269, Chien, Cmonzonc, Comae, Cookie, Correogsk, Cratn, Cristianrock2, DIANA ALCANTARA, Damian cf, Davidzodelin, Death Master, Diegusjaimes, Djblack!, Dromero, EL Willy, Edc.Edc, Eduardosalg, Edulix, El loko, Emiduronte, Er Komandante, Ezarate, Farisori, Furti, Greek, Greenbreen, HIPATIA2006, Helmy oved, Hidoy kukyo, Isha, JMCC1, Janus, Jarlaxle, Jefrcast, Jesuja, Jim88Argentina, Jkbw, Jose Aragon, Jstitch, Jtico, Juan.res, Kn, Kulos, Kved, LMLM, Lapaxangacity, Lautaroo, Leonpolanco, Leugim1972, Mafores, ManuelGR, Marcoantoniothomas, Matdrodes, Maury11rock, Maveric149, McMalamute, Mdd, MercurioMT, Miguelo on the road, Muro de Aguas, Natalia Villarroel, Netito777, Ortisa, Paintman, Pedro Nonualco, Pinar, Poco a poco, Plux, Rafael.heras, Rastrojo, Rodrigouf, RonaldoExtreme, Ruy Pugliesi, Rge, Sabbut, Seasz, Sergio Andres Segovia, Slastic, Smileegar, Sosqartxa, SuperBraulio13, Tano4595, Taragui, Technopat, Thorongil, Tirithel, Trylks, UA31, Vitamine, Vubo, Walter closser, Xavier, Youssefsan, conversion script, l, 313 ediciones annimas Clase de complejidad Fuente: http://es.wikipedia.org/w/index.php?oldid=60795952 Contribuyentes: AchedDamiman, Argentumm, Ascnder, Ezarate, Farisori, Narayan82, Superzerocool, 11 ediciones annimas Problema de decisin Fuente: http://es.wikipedia.org/w/index.php?oldid=57537482 Contribuyentes: Acratta, Ascnder, Cek, Eduardosalg, Farisori, GermanX, Guille.hoardings, Julie, Lluvia, Mariana de El Mondongo, Marsa, Netito777, Tomatejc, Trylks, 7 ediciones annimas Problema computacional Fuente: http://es.wikipedia.org/w/index.php?oldid=60369188 Contribuyentes: Jkbw, Kn, Ruber.badias, 5 ediciones annimas Cdigo gentico Fuente: http://es.wikipedia.org/w/index.php?oldid=61832887 Contribuyentes: ADRIANHDZ, Acratta, Adrianhdzh, Andrs Cortina, AngelHerraez, Antur, Banfield, Beta15, Bsea, Cri99sti99an99, Danielgamez, David0811, Diegusjaimes, Eduardosalg, Equi, Gcaruso, Gerwoman, Greek, Grillitus, HUB, Helmy oved, Humbefa, Ialad, Igna, J3D3, Jcfidy, Jkbw, Jmvkrecords, Jordi domenech, Joseaperez, KnightRider, LP, Laura Fiorucci, Leonpolanco, Lune bleue, MadriCR, Manuelt15, Matdrodes, Mel 23, Moriel, Neodop, Netito777, Nuen, Opinador, Orgullomoore, Otacon, PaleoFreak, Plux, Queninosta, Retama, Rlebron88, RoyFocker, Rsg, Sabbut, Sauron, Savh, SuperBraulio13, Taichi, Tirithel, UA31, UPO649 1011 clmilneb, Vitamine, Wilfredor, Ylmer, 221 ediciones annimas

143

Fuentes de imagen, Licencias y contribuyentes

144

Fuentes de imagen, Licencias y contribuyentes


Archivo:Ebbinghaus2.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Ebbinghaus2.jpg Licencia: Public Domain Contribuyentes: Atamari, Avron, DO11.10, Elya, Magog the Ogre, Milgesch, Pierre Audit Archivo:Facevase.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Facevase.png Licencia: GNU Free Documentation License Contribuyentes: Emil, Nevit, Paulo Cesar-1, TommyBee, 2 ediciones annimas Archivo:ProcesamientoDatos.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:ProcesamientoDatos.svg Licencia: Public Domain Contribuyentes: ProcesamientoDatos.png: Moriel derivative work: Geysir Archivo:Commons-logo.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Commons-logo.svg Licencia: logo Contribuyentes: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version, created by Reidab. Archivo:Spanish Wikiquote.SVG Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Spanish_Wikiquote.SVG Licencia: logo Contribuyentes: James.mcd.nz Archivo:Esquema de comunicacin Shannon.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Esquema_de_comunicacin_Shannon.png Licencia: Creative Commons Attribution-Sharealike 3.0 Contribuyentes: User:Nicoletis Archivo:Entropiaudem.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Entropiaudem.jpg Licencia: Public Domain Contribuyentes: gabojor Archivo:Binary entropy plot.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Binary_entropy_plot.svg Licencia: GNU Free Documentation License Contribuyentes: Brona and Alessio Damato Archivo:Entropy-mutual-information-relative-entropy-relation-diagram.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Entropy-mutual-information-relative-entropy-relation-diagram.svg Licencia: Public Domain Contribuyentes: KonradVoelkel Archivo:Explosions.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Explosions.jpg Licencia: Public Domain Contribuyentes: Kotasik, Lupo, Red devil 666, 1 ediciones annimas Archivo:Wykres Gibbsa.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wykres_Gibbsa.svg Licencia: Public Domain Contribuyentes: Fraximus Archivo:Carnot engine scheme.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Carnot_engine_scheme.svg Licencia: Creative Commons Attribution 2.5 Contribuyentes: Keta Archivo:Carnot cycle p-V diagram.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Carnot_cycle_p-V_diagram.svg Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported Contribuyentes: Dake, Keta, 3 ediciones annimas Archivo:CarnotCycle1.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:CarnotCycle1.png Licencia: Public Domain Contribuyentes: Bigbluefish, Dake, PAR, Perhelion, Smieh Archivo:Carnot-engine-1824.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Carnot-engine-1824.png Licencia: Public Domain Contribuyentes: User Sadi Carnot on en.wikipedia Archivo:Intcode.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Intcode.png Licencia: Public Domain Contribuyentes: Rhey T. Snodgrass and Victor F. Camp Archivo:SOS.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SOS.svg Licencia: Creative Commons Attribution-Sharealike 3.0 Contribuyentes: Dr. Schorsch Archivo:David morse.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:David_morse.jpg Licencia: Public Domain Contribuyentes: Fokerman Archivo:ArbolCodigoHuffman.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:ArbolCodigoHuffman.svg Licencia: Creative Commons Attribution-ShareAlike 3.0 Unported Contribuyentes: Of this SVG, Roland Geider (Ogre); of the original, Jacobo Tarrio Image: OneTimePadExcerpt.agr.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:OneTimePadExcerpt.agr.jpg Licencia: GNU Free Documentation License Contribuyentes: User:ArnoldReinhold Archivo:Al-kindi-cryptanalysis.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Al-kindi-cryptanalysis.png Licencia: Public Domain Contribuyentes: Bjh21, Duesentrieb, Mu, Sador, Sissssou Archivo:Bombe-wh.700px.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Bombe-wh.700px.jpg Licencia: GNU Free Documentation License Contribuyentes: User:TedColes Archivo:Zimmermann-telegramm-offen.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Zimmermann-telegramm-offen.jpg Licencia: Public Domain Contribuyentes: National Archives Archivo:TelekomAustriaAktie.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:TelekomAustriaAktie.png Licencia: Creative Commons Attribution-Sharealike 2.5 Contribuyentes: EvaK, It Is Me Here, Pieter Kuiper, Piotrus, Tangopaso, Thalion77, TommyBee Archivo:Standard deviation diagram.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Standard_deviation_diagram.svg Licencia: Creative Commons Attribution 2.5 Contribuyentes: Mwtoews Archivo:Binomial Distribution.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Binomial_Distribution.svg Licencia: GNU Free Documentation License Contribuyentes: cflm (talk) Archivo:Normal distribution pdf.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Normal_distribution_pdf.png Licencia: GNU General Public License Contribuyentes: Ardonik, Gerbrant, Grendelkhan, Inductiveload, Juiced lemon, MarkSweep, Wikiwide, 10 ediciones annimas Archivo:Closest pair of points.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Closest_pair_of_points.svg Licencia: Creative Commons Zero Contribuyentes: Qef Image:Wikiquote-logo.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wikiquote-logo.svg Licencia: Public Domain Contribuyentes: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 ediciones annimas Archivo:Bundesarchiv Bild 183-S1024-016, VEB Robotron Elektronik Dresden, Computer EC 1040.jpg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Bundesarchiv_Bild_183-S1024-016,_VEB_Robotron_Elektronik_Dresden,_Computer_EC_1040.jpg Licencia: Creative Commons Attribution-Sharealike 3.0 Germany Contribuyentes: Jed, Lotse, YMS Archivo:Wikiversity-logo-Snorky.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Wikiversity-logo-Snorky.svg Licencia: desconocido Contribuyentes: Archivo:solidLine.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:SolidLine.png Licencia: Public Domain Contribuyentes: Ascnder, Stux Archivo:dottedLine.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:DottedLine.png Licencia: Public Domain Contribuyentes: Ascnder, Kajk, Rocket000 Archivo:Codones-ARN.png Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:Codones-ARN.png Licencia: Public Domain Contribuyentes: Andrs Samael Cortina Ramrez Archivo:GeneticCode21-version-2.svg Fuente: http://es.wikipedia.org/w/index.php?title=Archivo:GeneticCode21-version-2.svg Licencia: Public domain Contribuyentes: Edited by Seth Miller User:arapacana, Original file designed and produced by: Kosi Gramatikoff User:Kosigrim, courtesy of Abgent, also available in print (commercial offset one-page: original version of the image) by Abgent

Licencia

145

Licencia
Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/

Anda mungkin juga menyukai