453
Recebido em 25 de Janeiro, 1999 Apresentamos uma compara ca ~o entre a entropia de Boltzmann-Gibbs-Shannon e a entropia de Tsallis dentro dos contextos da termodin^ amica, da mec^ anica estat
stica e da teoria da informa c~ ao, enfatizando as propriedades da entropia generalizada que indicam possibilidades dela estar associada a sistemas com intera co ~es de longo alcance, mem
oria de longa dura c~ ao ou espa co de fases com estrutura fractal. We present a comparison between the Boltzmann-Gibbs-Shannon entropy and the Tsallis entropy within the contexts of thermodynamics, statistical mechanics and information theory. We emphasize on the properties of the generalized entropy that indicate possibilities of associating it with systems presenting long range interactions, long duration memory or phase space with fractal structure.
I Introdu c~ ao
Podemos considerar a formula ca ~o do conceito de entropia juntamente com a energia como uma das grandes realiza c~ oes da ci^ encia. Permitiu formar o corpo te
orico da termodin^ amicade equil
brio e de processos irrevers
veis, constitui a pedra fundamental da mec^ anica estat
stica e tamb
em exerce papel central na teoria da informa c~ ao. Al
em disso, encontrou terreno f
ertil em sua interpreta c~ ao f
sica, permitindo que outras
areas do conhecimento tamb
em se bene ciassem, tais como loso a, economia e computa ca ~o. Uma proposta de generaliza ca ~o do conceito de entropia abre terreno para um trabalho gigantesco e muito seria esperado de tal formula ca ~o. Ser
a que esta nova entropia serviria de base para a generaliza c~ ao de teorias nas a
reas de conhecimento que o conceito usual tem servido? Haveria consist^ encia entre as v
arias conclus~ oes obtidas em cada uma dessas
areas? Quais os pontos que deveriam receber uma formula c~ ao geral e quais aqueles que deveriam permanecer intactos? Uma entropia generalizada manteria as interpreta c~ oes f
sicas que s~ ao atribu
das a entropia usual? Que fen^ omenos n~ ao conseguem ser bem explicados com o formalismo
e-mail:
usual? Seriam eles bem descritos com o formalismo generalizado? Que experimentos poderiam testar a validade das novas teorias? A mec^ anica estat
stica generalizada manteria seu car
ater preditivo, i.e. seria capaz de descrever comportamentos macrosc
opicos usando apenas informa c~ oes microsc
opicas? As teorias generalizadas teriam uma estrutura l
ogica su cientemente simples e seriam esteticamente belas? S~ ao muitas as quest~ oes, quase todas ainda abertas; n~ ao pretendemos respond^ e-las. Pretendemos t~ ao somente fazer um paralelo entre o conceito original de entropia e uma vers~ ao generalizada, recentemente proposta, sob tr^ es pontos de vista: o da termodin^ amica, o da mec^ anica estat
stica e o da teoria da informa c~ ao. Algumas propostas de generaliza c~ ao da entropia foram formuladas dentro do contexto da teoria da informa c~ ao. Mencionamos a entropia de R
enyi 29 em 1960, de Havrda e Charvat 15 em 1967 e a de Dar
oczy 11 em 1970 veja a Ref. 35 e outras l
a contidas. Mais tarde, em 1988, Constantino Tsallis 36 prop^ os outra generaliza c~ ao, no contexto da mec^ anica estat
stica |
e desta formula c~ ao que vamos tratar aqui. Seguindo a mesma linha de Tsallis, t^ em surgido outras propostas 1, 6, 20, 25 , relacionadas com grupos
ernesto@cbpf.br
454 qu^ anticos ou com o q-c
alculo de Jackson 18 . A mec^ anica estat
stica de Tsallis tem se mostrado uma boa candidata a descrever sistemas que apresentam intera c~ oes de longo alcance, mem
oria de longa dura ca ~o ou espa co de fases com estrutura fractal. Neste artigo vamos ilustrar as propriedades da entropia de Tsallis que se relacionam com estas caracter
sticas. Uma revis~ ao das propriedades da entropia usual pode ser encontrada em 4, 23, 45 e da entropia de Tsallis em 10, 35, 36, 37, 38, 39 .
Ernesto P. Borges
lizmente n~ ao. Cabe aqui um coment
ario de Brecht: De que serve poder duvidar quem n~ ao pode decidir? Pode atuar equivocadamente quem se contenta com raz~ oes demasiado escassas, mas car
a inativo ante o perigo quem necessite demasiadas".
O papel da estat
stica
e tirar o m
aximo proveito das informa c~ oes dispon
veis. O que a estat
stica faz
e reduzir o n
umero de vari
aveis de um conjunto normalmente grande a poucos valores representativos, atrav
es de m
edias adequadamente realizadas. Adequadamente signi ca segundo uma receita bem de nida. Quando dizemos, p.ex., que a altura m
edia da popula ca ~o brasileira
e de 1,68 m valor ct
cio, o conjunto de 160 milh~ oes de informa co ~es as alturas de cada brasileiro
uma redu foi reduzido a apenas um n
umero. E ca ~o dr
astica e inevitavelmente a maioria das informa c~ oes s~ ao perdidas nesse processo de m
edia. Se quisermos um pouco mais de detalhe na descri c~ ao, podemos nos referir a m
edia e a vari^ ancia primeiro e segundo momentos da distribui c~ ao das alturas | ter
amos agora duas informa c~ oes sobre a altura m
edia dos brasileiros. Nos sistemas usualmente estudados pela mec^ anica estat
stica, a redu c~ ao do n
umero de informa co ~es
e muit
ssimo mais dr
astica. Um mol de algum material cont
em um n
umero de mol
eculas da ordem de 1024. A caracteriza c~ ao microsc
opica completa desse sistema classicamente requeriria a especi ca c~ ao de posi c~ oes e velocidades de cada part
cula. Por outro lado, a caracteriza c~ ao macrosc
opica desse mesmo sistema requer especi ca c~ ao de um n
umero de vari
aveis da ordem de 10 ou pouco mais, quando muito. Assim, todo sistema f
sico macrosc
opico
e sempre de nido de forma incompleta, do ponto de vista microsc
opico. Naquele exemplo que demos, o da distribui c~ ao de alturas dos brasileiros, a analogia com o sistema f
sico seria, p.ex., a temperatura e o calor espec
co, associados ao primeiro e segundo momentos da distribui c~ ao de energias das mol
eculas. A mec^ anica cl
assica, formulada por Newton e posteriormente por Lagrange e Hamilton foi generalizada nas suas formas qu^ antica e relativ
stica. A formula c~ ao estat
stica da mec^ anica foi feita inicialmente por Boltzmann, nos anos 70 do S
eculo XIX, quando foi associada uma vari
avel macrosc
opica a entropia a conceitos microsc
opicos. Posteriormente Gibbs fez contribui c~ oes fundamentais a teoria, e por isso ela se denomina mec^ anica estat
stica de Boltzmann-Gibbs. A mec^ anica estat
stica de Tsallis prop~ oe generalizar a estat
stica, e n~ ao a mec^ anica.
455
itantes para explicar a obten c~ ao de trabalho 32 . Uma delas era baseada no princ
pio de Carnot-Kelvin, que estabelecia que o trabalho produzido dependia da diferen ca de temperatura entre uma fonte quente e uma fonte fria. Dizia-se que o trabalho dependia da qualidade o que hoje denominamos propriedade intensiva. A outra vis~ ao adotava o princ
pio de MayerJoule, que estabelecia que o trabalho produzido era proporcional ao calor o chamado equivalente mec^ anico do calor, e portanto o trabalho dependia da quantidade o que hoje denominamos propriedade extensiva. Estas duas vis~ oes foram uni cadas por Clausius, em 1850, quando ele formulou o conceito de entropia. Gibbs fez o seguinte elogio: Clausius had the ability to bring or-
der out of confusion, this breath of view which could apprehend one truth without loosing sight of another, this nice discrimination to separate truth from error..." de Clausius a frase A energia do mundo 33 . E e constante. A entropia do mundo tende a um m aximo"
primeira e segunda leis da termodin^ amica. A termodin^ amica interpreta a entropia como uma medida da irreversibilidade dos processos f
sicos. Imaginemos um processo no qual um sistema vai de um estado inicial I a um estado nal F , enquanto troca mat
eria e energia sob as formas de calor e trabalho com as vizinhan cas. Se for revers
vel, poder
a ser operado de modo inverso F ! I , e as quantidades de mat
eria, calor e trabalho no processo inverso ser~ ao as mesmas, em sentido contr
ario. J
a um processo irrevers
vel ou n~ ao pode ser operado de modo inverso ou, se puder, as quantidades de mat
eria, calor e trabalho n~ ao se compensar~ ao | uma parte da energia sob a forma de trabalho
e transformada em energia sob a forma de calor, e com isso ocorre uma perda de nitiva irrevers
vel da capacidade do sistema produzir trabalho. A esta gera c~ ao de calor
e associado um aumento da entropia.
poss
E
vel ocorrer um aumento ou diminui c~ ao da entropia de um sistema num processo revers
vel, desde que ocorra tamb
em nas vizinhan cas uma diminui c~ ao ou aumento exatamente igual, de modo que sua varia c~ ao total sistema + vizinhan cas seja nula. Particularmente n~ ao h
a varia c~ ao de entropia num processo revers
vel operado em ciclo I ! F ! I . Num processo irrevers
vel, a varia c~ ao total de entropia
e sempre positiva. N~ ao existe processo com varia c~ ao total de entropia negativa. Esta
e a segunda lei da termodin^ amica S 0. Todos os processos naturais s~ ao, em diferentes graus, irrevers
veis. N~ ao
e poss
vel, p.ex., obter gasolina a partir dos gases de combust~ ao de um autom
ovel fazendo o motor funcionar ao contr
ario. Uma proposta que pretenda generalizar o conceito de entropia deve manter este car
ater de irreversibilidade. A entropia de Tsallis mant
em esta interpreta ca ~o 24 | isto
e veri cado atrav
es do teorema H, formu-
lado por Boltzmann. Esta abordagem da termodin^ amica, que parte de leis emp
ricas,
e chamada heur
stica. A termodin^ amica recebeu sua abordagem axiom
atica baseada em postulados nos trabalhos de Carathe
odory 9 e Tisza 32 . A vers~ ao mais did
atica dos postulados foi enunciada por Callen 8 , que vamos retomar aqui, para fazer a conex~ ao com o formalismo de Tsallis. Postulado I. Exist^ encia de estados de equil
brio de sistemas simplesy macroscopicamente caracterizados completamente pela energia interna, volume e n
umero de moles das esp
ecies qu
micas constituintes. Postulado II. Exist^ encia da entropia S , fun c~ ao dos par^ ametros extensivos de um sistema composto, que
e m
axima no estado de equil
brio. Postulado III. A entropia
e uma fun c~ ao cont
nua, diferenci
avel e monotonamente crescente da energia, e
e aditiva sobre os sub-sistemas constituintes. Postulado IV. A entropia se anula na temperatura de zero absoluto. Para se formular uma generaliza c~ ao de uma teoria
e preciso violar pelo menos um de seus postulados. A entropia generalizada, proposta por Tsallis, viola a aditividade parte do terceiro postulado de Callen. Vejamos como isso ocorre. Se considerarmos um sistema composto por dois outros sub-sistemas independentes A e B , o terceiro postulado estabelece que a entropia do sistema composto
e dada pela soma das entropias de cada sub-sistema:
S A B = S A + S B :
1
y Sistemas simples s~ ao aqueles macroscopicamente homog^ eneos, isotr
opicos, quimicamente inertes, eletricamente descarregados, su cientemente grandes para que se possa desprezar efeitos de superf
cie e n~ ao sujeitos a campos eletromagn
etico ou gravitacional.
456 sistema A antes de ser posto em contato com o subsistema B | portanto o sistema A isolado; simiB larmente para S1 . Quando postos em contato para formar o sistema composto, cada sub-sistema contribui com sua parte. Na equa c~ ao 2,
e como se na forma c~ ao do sistema A B , o sub-sistema A contribuisse com B A 1 , qSq , e o sistema B contribuisse com Sq 1+ 1 2 B A Sq 1+ 1 1 , q S q . Isso signi ca que antes do sis2 tema composto ser formado os sub-sistemas j
a sentiam um ao outro, e n~ ao eram, portanto, isolados. O conceito de sistema isolado
e uma idealiza c~ ao, e
e bem aproximado quando suas partes interagem apenas se estiverem relativamente pr
oximas intera c~ oes de curto alcance, que decaem rapidamente com a dist^ ancia, veja Ref. 8 , p.330. Separar esses sistemas seja por afastamento espacial, seja pela introdu ca ~o entre eles de uma parede imperme
avel as intera c~ oes que eles trocam torna as intera c~ oes t~ ao pequenas que podem ser desprezadas, e assim eles se aproximam de sistemas isolados. Existem, entretanto, intera c~ oes de longo alcance que decaem lentamente com a dist^ ancia e tambem intera c~ oes que n~ ao s~ ao blindadas por paredes f
sicas. Tais intera c~ oes s~ ao signi cativas por mais distante que um sistema esteja do outro e n~ ao podem ser desprezadas. S~ ao exemplos de intera c~ oes de longo alcance as gravitacionais e as devido a cargas el
etricas n~ ao blindadas for cas de Coulomb. A n~ ao-aditividade da entropia de Tsallis expressa a impossibilidade de se separar completamente isolar sistemas interagentes.
Ernesto P. Borges exata. De um ponto de vista microsc
opico, o estado de um sistema cl
assico constitu
do por N part
culas puntuais
e completamente caracterizado por 6N informa c~ oes tr^ es posi co ~es e tr^ es velocidades por part
cula. Macroscopicamente, este mesmo sistema f
sico ca caracterizado por um n
umero muito menor de vari
aveis, p.ex., a energia, o volume e o n
umero de part
culas. Assim, para cada estado macrosc
opico bem de nido, existe um n
umero extraordinariamente grande de microestados compat
veis. O conjunto destes microestados
e denominado espa co de fases. Consideremos um experimento imagin
ario, no qual o estado macrosc
opico
e mantido constante e inicialmente o sistema esteja em um microestado particu medida que o tempo lar de seu espa co de fases. A passa, seu estado microsc
opico vai mudar e, durante um tempo su cientemente longo, o sistema vai passar por todos os estados acess
veis, e passar
a muitas vezes em cada um deles. Se repetirmos este experimento, partindo de outro estado microsc
opico inicial, novamente todo o espa co ser
a preenchido e cada estado ser
a visitado na mesma propor ca ~o do experimento anterior. Isso signi ca dizer que o modo como o espa co de fases
e preenchido n~ ao depende da condi c~ ao inicial. Consequentemente, para calcular propriedades macrosc
opicas, podemos substituir a m
edia temporal acompanhar a evolu c~ ao temporal do sistema, ou jogar um u
nico dado N vezes por uma m
edia de diferentes microestados, ou m
edia de ensembles jogar N dados uma u
nica vez. Esta
e a hip
otese erg
odica, fundamental na mec^ anica estat
stica. Ela d
a origem a duas abordagens computacionais: o m
etodo de din^ amica molecular, baseado nas m
edias temporais, e o m
etodo de Monte Carlo, baseado nas m
edias de ensembles 3 . A forma mais simples de relacionar uma propriedade macrosc
opica com uma informa c~ ao microsc
opica foi proposta por Boltzmann, para um sistema com energia, volume e n
umero de part
culas constantes. Se o espa co de fases deste sistema macrosc
opico for constitu
do por W poss
veis estados microsc
opicos, sua entropia ca dada por
S1 = k ln W;
3
onde k
e uma constante positiva que de ne a unidade
desta rela em que a entropia
e medida. E ca ~o que vem a interpreta c~ ao da entropia como uma medida de desordem de um sistema. Quando queremos p^ or ordem em casa, dizemos: Cada coisa em seu lugar" | existe apenas um local para guardar cada objeto e, de acordo com a equa c~ ao 3, S1 W = 1 = 0. A casa desordenada segue o lema Qualquer coisa em qualquer lugar"! Quanto maior o n
umero de estados acess
veis, maior a desordem, maior a entropia. A forma mais geral da entropia de Boltzmann-Gibbs
457
S1 = ,k
W X i=1
pi ln pi ;
4
onde pi
e a probabilidade do sistema estar no microestado i. Dentro da hip
otese ergodica, pi
e igual a fra ca ~o de tempo que o sistema permanece no estado i, durante sua viagem no espa co de fases. A receita da estat
stica de Boltzmann-Gibbs
e a seguinte: as propriedades macrosc
opicas s~ ao m
edias das propriedades microsc
opicas ponderadas pelas probabilidades pi . Os valores assumidos por pi em princ
pio variam de acordo com o estado i. O que de ne o modo como estes valores se distribuem no espa co de fases s~ ao as condi co ~es macrosc
opicas a s quais o sistema est
a submetido seu estado macrosc
opico. O caso particular em que os valores de pi s~ ao independentes do estado i estados igualmente prov
aveis ocorre quando s~ ao mantidas constantes a energia, o volume e o n
umero de part
culas condi c~ oes de validade da equa c~ ao 3. Este conjunto de estados
e denominado ensemble microcan^ onico. Se substituirmos pi = 1=W equiprobabilidade em 4, obtemos a equa ca ~o 3. Vamos analisar agora um outro caso, denominado ensemble can^ onico, no qual a energia n~ ao
e mais mantida constante. S~ ao permitidas utua c~ oes da energia em torno de um valor m
edio | este valor m
edio
e que
e mantido constante. Macroscopicamente isto equivale a manter a temperatura constante. O espa co de fases n~ ao mais ter
a estados equiprov
aveis. O sistema passar
a mais tempo nos estados de menor energia estados com probabilidades maiores e passar
a relativamente pouco tempo nos estados de alta energia estados pouco prov
aveis. De acordo com a mec^ anica estat
stica de Boltzmann-Gibbs, a distribui c~ ao de probabilidades ser
a dada por
PW q 1 , pi : Sq = k q ,i=1 7 1 Se tomarmos o caso particular q = 1, a equa c~ ao 7 se reduz a entropia de Boltzmann-Gibbs 4 de um modo mais geral, q = 1 recupera todo o formalismo usual da mec^ anica estat
stica. Como toda abordagem axiom
atica, a validade dos postulados
e veri cada pelas conclus~ oes a que eles levam. Assim, vamos investigar alguns resultados consequentes da de ni c~ ao 7. A primeira observa c~ ao
e que Sq
e n~ ao-negativa, para qualquer valor de q e esta
e uma caracter
stica importante. Se considerarmos um sistema composto A B no qual os espa cos de fase dos sub-sistemas sejam estaA B = pA pB , obtetisticamente independentes p ij i j mos como resultado a equa c~ ao 2, que d
a o car
ater n~ ao extensivo de Sq . Outra propriedade importante
e a concavidade. A entropia de Boltzmann-Gibbs
e c^ oncava, i.e., a equa ca ~o 4
e uma fun ca ~o que apresenta um e s
o um m
aximo. Esta
e a propriedade que satisfaz a segunda lei da termodin^ amica e tamb
em o segundo postulado de Callen e garante a estabilidade dos sistemas. A entropia generalizada Sq
e sempre c^ oncava exibe um u
nico ponto de m
aximo para q 0 e sempre convexa exibe um u
nico ponto de m
nimo para q 0. Dessa forma, Sq satisfaz a segunda lei da termodin^ amica, que deve ser reescrita como: A entropia de um sistema isolado em equil
brio
e um extremo". Se q 0, esse extremo
e um m
aximo e aqui est
a inclu
do o caso usual q = 1. Se q 0, o extremo
e um m
nimo. Ter um u
nico extremo
e uma caracter
stica importante do formalismo de Tsallis. Este parece ser um daqueles pontos que devem permanecer intactos. Nas palavras de Tisza 32 p. 121, From the phenomenological point of view, the en-
pi = e Z ; 5 1 onde Ei
e a energia do estado i, T
e a temperatura do sistema e Z1
e a fun c~ ao de parti c~ ao, um fator que garante a normaliza c ~ a o das probabilidades P W e denominado fator ou peso de i=1 pi = 1. pi
Boltzmann. O valor m
edio da energia, hE i1 ,
e uma propriedade macrosc
opica usualmente representada por U , aqui por U1 denominada energia interna. A receita de Boltzmann-Gibbs para relacionar U1 com as propriedades microsc
opicas fEig
e U1 hE i1 =
W X i=1
,Ei =kT
pi Ei :
6
Neste ponto estamos em condi c~ oes de introduzir a formula c~ ao de Tsallis da mec^ anica estat
stica. Ele postula que a entropia generalizada Sq
e relacionada com
tropy maximum principle is so thoroughly corroborated by experiment that we are con dent in interpreting any deviation in an actual case as an indication of incomplete thermodynamic equilibrium".
458 No ensemble can^ onico de Tsallis, a energia pode utuar em torno do valor esperado generalizado hE iq , de nido por
Ernesto P. Borges
Figura 1. Distribui c~ ao de probabilidades para diferentes valores de q. Decaimento lento q = 2, exponencial q = 1, e cut-o " q = 0:5 e q = ,1.
Uq hE iq =
Voltaremos a tratar da generaliza c~ ao do valor esperado mais adiante. Esta de ni c~ ao origina uma distribui ca ~o de probabilidades dada por 1 1 , 1 , q Ei , ; pi = Z 10 kT q onde Zq
e a fun c~ ao de parti c~ ao generalizada, que garante a normaliza c~ ao das probabilidades. Aqui surge uma diferen ca fundamental: no formalismo de Boltzmann-Gibbs, a distribui c~ ao de probabilidades
e dada por uma lei exponencial equa c~ ao 5, enquanto na mec^ anica estat
stica generalizada, a distribui ca ~o obedece a uma lei de pot^ encia equa c~ ao 10. Se q 1, a distribui c~ ao 10 tem um decaimento mais lento do que a fun c~ ao exponencial de um argumento negativo, como
e o caso de 5. Isso faz com que os estados de energia mais elevados sejam visitados mais frequentemente na estat
stica de Tsallis do que na estat
stica de Boltzmann-Gibbs. Se q 1, a situa c~ ao se inverte e a equa c~ ao 10 tem decaimento muito mais acentuado do que uma exponencial, ao ponto de apresentar valores negativos ou imagin
arios para a probabilidade, quando Ei 1 11 kT 1 , q ; o que
e sicamente inaceit
avel. Alguns valores particulares de q 1 apresentam probabilidades crescentes com a energia, quando ocorre 11, o que tamb
em
e sicamente inaceit
avel. Para corrigir este problema, Tsallis introduziu um corte cut-o na distribui c~ ao de probabilidades, que imp~ oe que pi 0 quando ocorre a condi ca ~o 11. Neste caso q 1, a distribui ca ~o de probabilidades
e de suporte compacto, essencialmente diferente da distribui c~ ao de Boltzmann-Gibbs. A Figura 1 ilustra as diferen cas entre as distribui c~ oes.
1 1 q
W X pq i Ei : i=1
9
Alguns sistemas podem apresentar um espa co de fases com regi~ oes atratoras. Se o estado microsc
opico do sistema cair numa dessas regi~ oes, n~ ao consegue mais sair, violando a ergodicidade. Pode acontecer que o padr~ ao de preenchimento do espa co de fases apresente uma estrutura fractal. Como os fractais s~ ao relacionados com leis de pot^ encia, o fato da mec^ anica estat
stica de Tsallis tamb
em apresentar leis de pot^ encia ela foi, na verdade, inspirada nos multi-fractais, vide Ref. 36 sugere a possibilidade deste formalismogeneralizado ser capaz de descrever alguns sistemas n~ ao-erg
odicos.
7 . Busquemos uma fun c~ ao S1 que me ca a incerteza. E natural que a incerteza dependa do n umero de possibilidades W : comparemos um jogo de dado com um jogo de moeda. Neste u ltimo existem apenas duas possibilidades, enquanto no dado existem seis possibilidades. Nossa incerteza quanto ao resultado do jogo do dado e maior que no jogo da moeda. Devemos esperar, portanto, que a medida da incerteza S1 = S1 W seja monotonamente crescente com W , e limW !1 S1 W = 1, ou seja, se houver in nitas possibilidades, nossa incerteza tamb em ser a in nita. No jogo do dado, como tamb em da moeda, todos os eventos s~ ao equiprov aveis 50 para cara e 50 para coroa no jogo da moeda, e 1 6 para cada face no jogo do dado. Mas existem circunst^ ancias nas quais os eventos t^ em probabilidade de ocorr^ encia diferenciada. Assim, e razo avel supor que nossa medida da incerteza dependa tamb em da probabilidade pi de ocorr^ encia de cada evento i, S1 = S1 fpig; W . Para cada evento i existe uma medida de incerteza I1 pi que depende da razo sua probabilidade de ocorr^ encia pi. E avel tamb em supor que a incerteza total S1 , associada ao conjunto
459
S1 =
W X i=1
piI1 pi :
12
Quanto menor for pi , maior a nossa incerteza a respeito desse evento I1 pi deve ser monotonamente decrescente com pi. Por outro lado, se um evento i
e certo pi = 1, ent~ ao I1 1 = 0. Outra caracter
stica que devemos esperar de I1 pi, apesar de
plim !0 I1 pi = 1;
i
,q
18
13 14
Sq = ,k
W X pq i lnq pi : i=1
19
e que
pi I1 pi = 0; plim i !0
Quando comparamos com a express~ ao de Shannon, reescrita na forma S1 = ,khln pi i1 , sendo hOi1 o valor esperado usual de uma grandeza O, de nido por receita de Boltzmann-Gibbs
hOi1 =
W X i=1
pi Oi;
20
somos imediatamente tentados a escrever Sq = ,khlnq pi iq , onde o valor esperado generalizado da grandeza O e de nido como
h O iq =
W X pq i Oi ; i=1
21
15
que
e a express~ ao sugerida pela equa c~ ao 9. Posto desta forma, Sq
e uma esp
ecie de m
edia generalizada de uma medida generalizada da desinforma c~ ao Iq pi = ,k lnq pi. Vamos denominar a inversa da fun ca ~o qlogar
tmo como fun c~ ao q-exponencial: expq x ex q = 1 + 1 , qx
1 1 q
e
A B A B I1 p 16 i pj = I1pi + I1 pj : A equa c~ ao 15 expressa matematicamente o que antes est
avamos denominando sistemas estatisticamente independentes. Shannon 30 provou que a u
nica fun c~ ao que satisfaz a essas condi c~ oes que estamos procurando
e I1 pi = ,k ln pi ; 17 sendo k uma constante positiva que de ne a unidade de medida da incerteza. A incerteza S1
e dada pela mesma express~ ao da entropia de Boltzmann-Gibbs compare 12 e 17 com 4. Temos assim a interpreta ca ~o da entropia como uma m
edia da incerteza, ou da desinforma c~ ao, associada a um conjunto de eventos.
22
Com isso, a distribui c~ ao de probabilidades no ensemble E =kT , em perfeita can^ onico equa c~ ao 10 ca pi e, q analogia com a estat
stica de Boltzmann-Gibbs, onde E =kT equa pi e, c ~ a o 5. 1 Vamos ilustrar a diferen ca entre as duas estat
sticas atrav
es do problema da caixa de chocolate, descrito na Ref. 41 . Este problema mostra a evolu c~ ao temporal da entropia desde a m
axima desinforma ca ~o at
ea certeza. Imagine que no tempo t = 0, quatro caixas lhe s~ ao mostradas, onde uma e apenas uma delas cont
em um chocolate. No tempo t = 1 voc^ e obt
em uma informa c~ ao adicional, que o chocolate est
a em uma de duas caixas duas outras caixas s~ ao eliminadas. Finalmente no tempo t = 2, voc^ e
e informado qual a caixa que cont
em o chocolate certeza. Consideremos tr^ es casos, q = 0, q = 1 e q = 2. A entropia
e calculada
i i
460 pelas equa c~ oes 3 ou 8. A Figura 2, similar a contida no artigo citado, ilustra a evolu ca ~o temporal de Sq t=Sq 0 incerteza no tempo t relativa a incerteza inicial na dire c~ ao do conhecimento completo. Vemos que a evolu c~ ao e mais lenta a medida que q aumenta. O caso q = 1 e interpretado como aus^ encia de conhecimento pr evio. q 1 corresponde a conhecimento pr evio correto a pessoa pensa que sabe e, de fato, sabe, e q 1 corresponde a conhecimento pr evio incorreto a pessoa pensa que sabe mas, de fato, n~ ao sabe. Esta interpreta c~ ao j a havia sido feita por Jumarie 21 , analisando a entropia de R enyi, e continua v alida para a entropia de Tsallis, como comentam os autores 41 . Podemos dizer que q 1 corresponde a cren cas falsas, q 1 a conhecimentos con aveis e q = 1 a ignor^ ancia. Em outras palavras, a fronteira entre a cren ca falsa e o conhecimento e a ignor^ ancia!
Ernesto P. Borges menor 27 . O escravo prontamente respondeu que o quadrado de area dupla tem tamb em o lado duplo. Atrav es de seu m etodo pr oprio, S ocrates fez o escravo perceber que ele estava errado. O escravo, que n~ ao sabia, mas acreditava saber cren ca falsa, agora estava em d uvida e tinha apenas a convic ca ~o que n~ ao sabia ignor^ ancia. S ocrates comentou, ent~ ao, que este estado de ignor^ ancia do escravo era melhor que sua certeza cren ca anterior. Continuando, as perguntas de S ocrates conduziram o escravo a resposta correta | ele nalmente chegou a conclus~ ao que o quadrado maior tem lado igual a diagonal do quadrado menor. Assim e ilustrada a id eia que para ir da cren ca ao conhecimento e preciso passar pela ignor^ ancia. O pr oprio S ocrates reconhecia que ele permanecia sempre neste est agio, quando dizia s o sei que nada sei". Ser a que S ocrates era uma pessoa que funcionava com q = 1?.
S ocrates tinha tocado esse problema, quando ele perguntou a um escravo qual o tamanho do lado de um quadrado que tem o dobro da area de outro quadrado
c
B A Uq2A B = Uq2A + Uq2B + 1 , q Uq2ASq =k + Uq2B Sq =k ;
23
d
onde o
ndice superior 2 indica valor esperado q de segunda esp
ecie, de nido pela equa c~ ao 21. O
ndice
e agora necess
ario para diferenciar do valor esperado q de terceira esp
ecie, a ser de nido em seguida. O valor esperado de primeira esp
ecie, hOi1 e o usual, dado 1 ,
pela equa c~ ao 20. Para superar esses problemas, Tsallis, Mendes e Plastino 43 de niram o valor esperado q de terceira esp
ecie
W X i=1
hOi3 q
Piq Oi;
24
461
pq i : Piq = PW 25 q j =1 pj Na Figura 3, mostramos a probabilidade associada contra a probabilidade usual, para um sistema com dois poss
veis estados W = 2 e para tr^ es valores de q. Fica evidente que q 1 privilegia eventos raros, enquanto q 1 privilegia eventos frequentes. Como dito na Ref. 43 , esta caracter
stica cont
em o cerne da generaliza c~ ao.
Vamos agora mencionar algumas conjecturas a respeito do formalismo generalizado. Uma das belezas e gl
orias da mec^ anica estat
stica
e obter os resultados de equil
brio termodin^ amico como consequ^ encia de suas hip
oteses. Vejamos o que signi ca equil
brio termodin^ amico. Equil
brio
e invari^ ancia com o tempo | as propriedades que caracterizam o estado do sistema s~ ao constantes do movimento. Ele
e alcan cado quando tomamos tempos su cientemente longos. A termodin^ amica diz respeito a sistemas macrosc
opicos, i.e., sistemas com n
umero su cientemente grande de part
culas. No formalismo de Boltzmann-Gibbs, n~ ao importa a ordem que esses limites s~ ao tomados, i.e.,
28
Figura 3. Probabilidade associada Piq versus probabilidade pi para um sistema com duas possibilidades W = 2.
por
pi =
expq ,
. 3 PW q Ei ,Uq j =1 pj kT
Zq3
27
c~ ao de parti ca ~o de terceira esp
ecie. A com Zq3 a fun distribui c~ ao 27
e ainda uma lei de pot^ encia, e isso mant
em as caracter
sticas essenciais da mec^ anica estat
stica generalizada.
Existem suspeitas que esses limites n~ ao necessariamente comutam no caso gen
erico q 6= 1 39 . A n~ ao comuta c~ ao indica que o estado nal depende do modo como ele foi alcan cado sistemas com mem
oria. Neste caso, o primeiro postulado de Callen, que estabelece a exist^ encia de estados de equil
brio termodin^ amico, tamb
em necessitar
a uma reformula c~ ao. Vimos que a n~ ao-aditividade implica na n~ ao validade do conceito de sistema isolado. Isso parece ter uma consequ^ encia sutil, mas primordial, no m
etodo de an
alise. Desde Descartes 12 , problemas complexos s~ ao tratados atrav
es da sua decomposi ca ~o em problemas mais simples, que possam ser descritos individualmente. O par^ ametro q da generaliza c~ ao introduz um termo 10 dependente do contexto, ou hol
stico. Isto parece sugerir um rompimento com o m
etodo cartesiano de an
alise. Iniciamos este trabalho esclarecendo as diferen cas entre a mec^ anica e a estat
stica. Voltemos agora a este assunto. De um ponto de vista metodol
ogico, podemos fazer uma distin ca ~o entre as abordagens da mec^ anica e da estat
stica: a mec^ anica utiliza uma l
ogica dedutiva, enquanto a estat
stica utiliza uma l
ogica indutiva 16 . No processo dedutivo, as consequ^ encias s~ ao derivadas de implica c~ oes l
ogicas de postulados, assumidos verdadeiros. Por exemplo, postulando as leis de Newton se
obt
em todas as consequ^ encias da mec^ anica cl
assica. E um procedimento que parte do geral para o particular. O processo indutivo faz o caminho contr
ario, do particular para o geral. Chega-se a conclus~ oes sobre todos os membros de uma classe pelo exame de apenas alguns de seus membros. O formalismo de Tsallis corresponde, talvez, a uma nova formula ca ~o do m
etodo indutivo de infer^ encia probabil
stica. A probabilidade pode ter uma interpreta c~ ao objetiva ou subjetiva 16, 19 . Em aplica co ~es f
sicas, a interpreta c~ ao objetiva pode parecer mais aceit
avel, mas em problemas de planejamento, onde s~ ao necess
arias
462 decis~ oes a respeito de qual caminho seguir com implica c~ oes nanceiras, temporais ou outras, a interpreta c~ ao subjetiva se torna evidente. A estat
stica generalizada pode incluir, na an
alise, aspectos subjetivos da pessoa que decide | seu comportamento de busca ou de avers~ ao ao risco 41 . O caso particular q = 1 estat
stica usual corresponde a imparcialidade, onde os aspectos subjetivos n~ ao s~ ao considerados.
uma experi^ E encia comum na hist
oria das ci^ encias que apenas alcan camos uma compreens~ ao mais profunda de uma teoria, particularmente a respeito de suas limita c~ oes, quando estudamos uma formula c~ ao generalizada. Assim acontece com a mec^ anica cl
assica, que sup~ oe implicitamente que
e poss
vel obter-se informa c~ oes com precis~ ao in nita e se propagando instantaneamente. Estas hip
oteses impl
citas se tornam expl
citas com as generaliza c~ oes qu^ antica e relativ
stica. O mesmo ocorre com a mec^ anica estat
stica usual de Boltzmann-Gibbs, e a vers~ ao de Tsallis exerce um papel epistemol
ogico similar 44 . Existem algumas ci^ encias que se comportam como rainhas. S~ ao ci^ encias que nos inspiram rever^ encia e merecem muito cuidado ao toc
a-las. Einstein considerava o eletromagnetismo assim e resolveu mant^ e-lo intacto, modi cando os conceitos de espa co e tempo, na formula c~ ao da teoria da relatividade. Einstein tamb
em considerava a termodin^ amica com igual respeito, como vemos em suas Notas Autobiogr
a cas 13 : Quanto
Ernesto P. Borges
in any department of knowledge is to nd the point of view from which the subject appears in its greatest simplicity" Josiah Willard Gibbs 34 . The object of all science, whether natural science or psychology, is to co-ordinate our experience and to bring them into a logical system ... The only justi cation for our concepts and system of concepts is that they serve to represent the complex of our experiences; beyond this they have no legitimacy" Albert Einstein
14 . Terminamos com uma esperan ca, lan cada exatamente um s
eculo antes da generaliza c~ ao que tratamos, referente a duas ci^ encias emergentes da
epoca, a termodin^ amica e a mec^ anica estat
stica: These investigations of a rather theoretical sort are capable of much more immediate practical application than one could be inclined to believe" Le Chatelier, 1888.
Agradecimentos
Agrade co a Constantino Tsallis e a Evaldo M. F. Curado pelas discuss~ oes que t^ em ajudado a ordenar minhas id
eias sobre a entropia. Agrade co tamb
em a CAPES pelo apoio nanceiro.
References
1 Abe, S., Phys. Lett. A 224, 326 1997. 2 Alemany, P. A. e Zanette, D. H., Phys. Rev. E 49, R956 1994; Zanette, D. H. e Alemany, P. A., Phys. Rev. Lett. 75, 366 1995; Tsallis, C., Levy, S. V. F., de Souza, A. M. C. e Maynard, R., ibid. 75, 3589 1995; Erratum: 77, 5442 1996; Caceres, M. O. e Budde, C. E., ibid. 77, 2589 1996; Zanette, D. H. e Alemany, P. A., ibid. 77, 2590 1996. 3 Allen, M. P. e Tildesley, D. J., Computer Simulation of Liquids, Clarendon Press, Oxford, 1987. 4 Balian, R., From Microphysics to Macrophysics, Vol. I, Springer-Verlag, Berlin 1982. 5 Boghosian, B. M., Phys. Rev. E 53, 4754 1996; Anteneodo, C. e Tsallis, C., J. Mol. Liq. 71, 255 1997. 6 Borges, E. P. e Roditi, I., Phys. Lett. A 246, 399 1998. 7 Brillouin, L., Science and Information Theory, 2nd. ed., Academic Press, New York, 1962. 8 Callen, H. B., Thermodynamics and an Introduction to Thermostatistics, 2nd. ed., John Wiley & Sons, New York, 1985. 9 Carathe
odory, C., Math. Ann. 67, 355 1909. 10 Curado, E. M. F. e Tsallis, C., J. Phys. A: Math. Gen. 24, L69 1991; Corrigenda 24, 3187 1991 e 25, 1019 1992. 11 Dar
oczy, Z., Information and Control 16, 36 1970.
maior a simplicidade das premissas, mais impressionante
e a teoria, maior o n
umero de coisas diferentes com as quais se relaciona e mais extensa sua
area de aplica c~ ao. Da
a profunda impress~ ao que me causou
au o conhecimento da termodin^ amica cl
assica. E
nica teoria f
sica de conte
udo universal que, estou convencido, dentro da estrutura da aplicabilidade dos seus conceitos b
asicos, jamais ser
a derrubada". As profun-
463
29 R
enyi, A., On measures of entropy and information", in Proc. Fourth Berkeley Symposium on Mathematical Statistics and Probability 1, 547 1960; Probability Theory, North-Holland, Amsterdam 1970. 30 Shannon, C. E., Bell Syst. Tech. J. 27, 379 1948. 31 de Souza, A. M. C. e Tsallis, C., Physica A 236, 52 1997. 32 Tisza, L., Generalized Thermodynamics, The MIT Press, 1966. 33 in 32 , p. 30. 34 in 32 , p. v. 35 Tsallis, C., Chaos, Solitons and Fractals 6, 539 1995. 36 Tsallis, C., J. Stat. Phys. 52, 479 1988. 37 Tsallis, C., Extensive versus Nonextensive Physics, in New Trends in Magnetism, Magnetic Materials and Their Applications, J. L. Mor
an-L
opez e J. M. Sanchez, Plenum Press, New York, p.451 1994. 38 Tsallis, C., Physica A 221, 277 1995. 39 Tsallis, C., Braz. J. Phys. 29, 1 1999. 40 Tsallis, C., Qu
mica Nova, 17, 468 1994. 41 Tsallis, C., Deutscher, G. e Maynard, R., Braz. J. Prob. Stat. 10, 103 1996. 42 Tsallis, C., Phys. Lett. A 195, 329 1994. 43 Tsallis, C., Mendes, R. S. e Plastino, A. R., Physica A 261, 534 1998. 44 Tsallis, C. e Abe, S., Physics Today 51, 114, October 1998. 45 Wehrl, A., Rev. Mod. Phys. 50, 221 1978; Reports on Mathematical Physics 30, 119 1991.