Anda di halaman 1dari 3

En Termodinmica se reconoce a una 1 Ley de la Termodinmica, conocida

como (Ley de conservacin de la energa) ya que establece cierta magnitud


llamada energa, la cual no cambia con los muchos cambios que ocurren en la
naturaleza. Y se reconoce adems a una 2 Ley de la Termodinmica, donde
establece, por su parte que existe otra magnitud llamada entropa (desorden de
las partculas), que permanece constante en algunas transformaciones y que
aumenta en otras, sin disminuir jams. Aquellas trasformaciones en las cuales la
entropa aumenta, se denominan procesos irreversibles.
La 2 Ley de la Termodinmica se aplica solamente a sistemas aislados, es decir,
a sistemas en los cuales las transformaciones implicadas quedan todas en ellos.
En sistemas abiertos, en cambio, as como la energa puede pasar de un sistema
a otro y entonces mientras uno la pierde el otro la gana, pero el balance total es
igual a cero, lo mismo acontece con la entropa: si un sistema gana entropa su
alrededor (que es otro sistema) la pierde, pero el balance total es nulo. Vale decir,
al sistema ms su alrededor se le considera como un sistema aislado as se ha
considerado al universo-. ste es el caso, sin embargo, de los procesos
reversibles, los cuales son procesos ideales que no existen en la naturaleza.
En los sistemas reales, y como tales escenarios de procesos irreversibles, el
balance final de entropa es siempre positivo. Adems, es muy importante
sealar que la entropa aumenta en un sistema aislado hasta alcanzar
un mximo, que es su estado de equilibrio ya que espontneamente permanece
en l.
Desde fines del siglo XIX en el ao de 1872, se empieza a reconocer con
Ludwig Boltzmann que esta segunda Ley es una ley de naturaleza
probabilstica o estadstica. Esto quiere decir que no es imposible que en un
sistema aislado pueda alguna vez disminuir su entropa, en lugar de aumentar.
Esta aparente contradiccin con lo estipulado por la segunda Ley, no es tal, pues
la prediccin de la ley est garantizada, en los hechos, por aquella otra ley que es
principio fundamental de toda estadstica: la llamada ley de los grandes nmeros.
O sea, las excepciones se pierden en el conjunto inmensamente superior -en
extensin- de los resultados esperados. Sin embargo, es posible la existencia de
excepciones todava ms, podramos decir que la existencia de excepciones es
inevitable dada su naturaleza probabilstica.

El cientfico Boltzmann uno de los creadores, junto con su compaero J.W. Gibbs,
de la Mecnica estadstica utiliz la teora cintica de los gases, de acuerdo con la
cual la cantidad de calor de un gas depende del movimiento irregular de sus
molculas, para mostrar que las colisiones entre molculas conducen segn leyes
probabilsticas a una igualacin media de las diferencias de velocidad que ellas
presentan.
As, las molculas ms rpidas que el promedio, pierden velocidad con cada
choque; mientras las molculas ms lentas que el promedio, ganan velocidad al
chocar con las molculas ms rpidas. Es precisamente esta igualacin o sea,
desaparicin de las diferencias lo que constituye el estado de equilibrio o estado
de mxima entropa-.
Vale enunciar, el incremento de entropa durante los procesos fsicos implica que
los conjuntos bien ordenados de molculas se transforman en conjuntos mal
ordenados. El orden es aqu sinnimo de "diferencia" o de "heterogeneidad", lo
cual no coincide necesariamente con el concepto de sentido comn o habitual de
nuestra vida diaria- de orden. Para dar un ejemplo: si todas las molculas rpidas
o sea, ms rpidas que el promedio se concentraran en la mitad izquierda del
recipiente que las contiene, y las molculas lentas que el promedio lo hicieran en
su mitad derecha, tendramos el estado de mximo orden o el estado ms
alejado del estado de equilibrio, que es el estado de mximo desorden o entropa.
El sentido comn, tal vez, le parecera ms ordenado un estado homogneo, es
decir, un estado en que las molculas estn distribuidas en forma uniforme donde
en cualquier subespacio del sistema encontraramos molculas con una velocidad
variable muy poco alrededor del promedio. sta es sin embargo la descripcin del
estado de equilibrio.
Las colisiones al azar entre las molculas de un gas (el llamado "caos molecular",
que no es lo mismo que el caos dinmico, del cual hablaremos despus) son las
responsables de esta igualacin de las diferentes velocidades individuales, hasta
alcanzar el estado de equilibrio termodinmico en el cual el espectro de
velocidades de las molculas se distribuyen en una curva normal alrededor de la
velocidad promedio distribucin de Maxwell.
Ahora, por qu se califica al estado de equilibrio como el equivalente al estado
de mxima probabilidad de la Mecnica estadstica? Porque las distribuciones
en el espacio de velocidades cercanas o levemente diferentes a la velocidad

promedio
vale
decir,
la
configuracin
predominante
estn
en
un nmero inmensamente mayor a aquellas velocidades alejadas del promedio
aquellas
molculas
o
demasiado
rpidas
o
demasiado
lentas.
La configuracin predominante, entonces, constituye el estado ms probable
del sistema. Y el estado de mxima entropa corresponde as a una uniformidad
estadstica. A pesar de esto no es imposible que el choque de las molculas
pueda producir resultados que van en contra de esta igualacin, lo cual no
invalida, sin embargo a esta ley probabilstica que es la 2 Ley de la
Termodinmica.
Nada prohbe que del choque de una molcula rpida con otra molcula lenta,
por ejemplo, la molcula rpida se haga ms rpida y la molcula lenta se haga
ms lenta. Este resultado va en contra de la tendencia igualitaria, la tendencia
hacia el incremento de la entropa, pero se puede producir perfectamente; slo
que por ser su ocurrencia estadsticamente no significativa, se pierde en el
resultado de conjunto que siempre representa un incremento de entropa o
desorden.
Por otra parte, se habla de estado de equilibrio porque una vez que la distribucin
ms probable ha sido alcanzada, permanece estacionaria. Pese a las colisiones
posteriores que pueden hacer variar las velocidades individuales de las molculas,
la distribucin de conjunto permanece invariable.
sta es la concepcin en la cual se basa la interpretacin de la entropa como
medida del desorden, o como medida inversa del orden, y por la cual la entropa y
con ella la probabilidad aumenta en funcin del nmero de ordenaciones o
microestados pertenecientes a una clase del mismo orden. Ahora, si en lugar de
usar el concepto de entropa como medida inversa del orden de un sistema.
En conclusin la termodinmica acepta varias leyes teniendo en cuenta sus finitas
variables que las rodean en el caso de la entropa ya que esta es el fundamento
principal que rige la segunda ley de la termodinmica que es donde se presenta
un sistema y dependiendo de las condiciones en las que se encuentre se puede
decir, basndose en clculos probabilsticos y mecnica clsica un cierto valor
aproximado de la entropa o el orden o desorden de las molculas.

Anda mungkin juga menyukai