domingo, 20 de janeiro de 2008

Entropia

A noção de Entropia está vinculada ao segundo princípio da Termodinâmica, formulado pela primeira vez por Sadi Carnot em 1824, e revestido por rigor matemático por Clausius em 1850. Revelando que o calor passa somente do corpo mais quente para o mais frio, o segundo princípio estabeleceu que para toda transformação de energia num sistema fechado há uma degradação da mesma energia, isto é, uma perda da energia total disponível no sistema.

Degradação designa a passagem de uma forma de energia para outra forma que não pode ser acompanhada pela transformação inversa completa. A energia mecânica pode ser convertida em calor, mas a transformação inversa só é possível parcialmente - só uma parte do calor pode ser convertida em energia mecânica.

Então o calor se considera a forma mais baixa ou degradada de energia, e por isso o segundo princípio se chama, por esse aspecto, de "princípio da degradação da energia". A Entropia não é senão a função matemática que exprime a degradação da energia que ocorre, invariavelmente, em toda transformação.

O princípio da Entropia estabeleceu, em nível científico, a irreversibilidade dos fenômenos naturais. Para a mecânica clássica ou newtoniana, todos os fenômenos são reversíveis: o tempo poderia transcorrer indiferentemente em um ou outro sentido, do passado para o futuro, ou vice-versa. Nas equações que exprimem o comportamento dos fenômenos mecânicos, o tempo é uma variável contínua, que não tem um sentido determinado. O princípio da Entropia estabelece um sentido nos fenômenos, isto é, sua irreversibilidade no tempo. No final do século passado, cientistas e filósofos deduziram a partir daí uma previsão do fim do universo, sua morte termodinâmica pela degradação total da energia, ou seja, por alcançar a Entropia máxima. Reichenbach, em The Direction of Time: "A direção do tempo é expressa para nós nas direções dos processos dados pelos sistemas parciais que são numerosos no nosso ambiente. Todos esses processos seguem no mesmo sentido direção, isto é, no sentido da entropia crescente. Esse fato está estreitamente ligado ao crescimento geral da entropia do universo e é através da reiteração desse fato nos sistemas parciais que o desenvolvimento da entropia no universo nos indica a direção do tempo". Na verdade a ciência hoje não autoriza a passagem dos sistemas parciais ou fechados, para os quais vale a entropia, ao sistema geral do universo.

O pensamento evolucionista, que na biologia significou um movimento em direção de ordem e complexidade crescentes, na física passou a significar uma tendência à desordem. O estudo dos sistemas dissipativos introduziu na física a idéia de "processos irreversíveis. As leis da Física, até a exceção trazida pelo Segundo Princípio da Termodinâmica, ignoravam a dispersão, a desordem, o desgaste e a degradação. Depois de estabelecido que o Calor é forma degradada de energia - o qual não pode gerar trabalho nem se converter em outra modalidade de energia, e que é tendência inevitável de qualquer sistema produzir calor, desgastando-se, introduziu-se a noção de degradação da energia. Primeiro esboçado por Carnot, depois formulado por Clausius (1850), o Segundo Princípio trouxe o conceito de entropia.

O princípio de evolução, forma moderna do princípio de Carnot, consiste em que um sistema fechado, isto é, que não recebe energia de uma fonte exterior, evolui necessariamente, passando de estados menos prováveis a estados mais prováveis. Tal é o caso da mistura dos gases; o mesmo acontece com dois líquidos, de densidades ligeiramente diferentes, como a água e o vinho, que fossem superpostos num tubo vertical: ao final de certo tempo, obteríamos uma mistura sensivelmente homogênea, e jamais se produziria de novo a separação da água e do vinho. Assim, pode-se dar um outro enunciado ao princípio da evolução e dizer que um sistema fechado não passa duas vezes pelo mesmo estado. É possível, na verdade, separar a água misturada ao álcool, mas para tanto é preciso recorrer à destilação, o que exige uma fonte externa de calor.

Nem é necessário descer à escala molecular para observar a lei de evolução; se tivermos grãos de dimensões inferiores a um milímetro, de modo que haja alguns milhões por litro, sendo alguns desses grãos brancos e outros pretos, dão uma mistura uniformemente cinzenta, da qual não se pode mais separar uma porção homogênea inteiramente branca ou preta. Para obter tal massa homogênea, teríamos que tirar os grãos um a um, o que seria impossível no caso das moléculas. Maxwell imaginou uma maneira de fazer uma separação desse tipo, com o que ficou conhecido como "demônio de Maxwell": um minúsculo "demônio", colocado diante de um pequeno orifício deixaria passar num sentido as moléculas mais rápidas, e no contrário as mais lentas, resultando num resfriamento do setor onde ficassem as mais lentas; imaginou que se este trabalho de seleção implicasse num gasto desprezível de energia, haveria geração de trabalho, pelo gradiente de temperatura, sem gasto de energia. Este ser mítico seria capaz de controlar um orifício numa parede entre dois fluidos, que permitiria a passagem das moléculas rápidas numa direção e das lentas na oposta, controlando assim a temperatura, mais alta no primeiro e mais baixa no segundo sem gasto de energia, em contradição com o segundo Princípio da Termodinâmica.

O texto de Slizard sobre o "demônio de Maxwell", um paradoxo para os físicos desde 1871, resolve o paradoxo, fazendo importante progresso, demonstrando que o demônio transforma informação em entropia negativa. Ele trabalhou com a idéia de que se não há luz o demônio não pode ver as moléculas‚ e que se luz é introduzida no sistema a entropia aumenta, confirmando o segundo Princípio. Usando Termodinâmica e Mecânica Quântica ele calculou qual a mínima quantidade de energia necessária para transmitir 1 bit de informação, i.é, o mínimo sinalizador. Cálculo comparável da menor quantidade de energia usada em observar 1 bit de energia foi efetuado por Brillouin.

A partir daí, se considerarmos um sistema que não seja alimentado por energia exterior, isto é, um sistema fechado, toda a transformação realizada em seu interior faz-se acompanhar de um aumento da entropia e, de acordo com o segundo princípio, esta degradação irreversível não pode parar de crescer até ao máximo, que é um estado de homogeneização e de equilíbrio térmico, no qual desaparecem a aptidão para o trabalho e as possibilidades de transformação. Carnot demonstrou que para obter trabalho a partir do calor são necessárias duas fontes de calor, de diferentes temperaturas, de tal modo que uma fração do calor extraído da fonte quente possa se transformar em trabalho. A partir do momento em que faltem esta heterogeneidade calorífica e este desequilíbrio térmico, deixa de haver trocas ou transformações concebíveis.

Todo aumento de entropia é um aumento de desordem interna, e a entropia máxima corresponde a uma desordem molecular total num sistema, o que se manifesta ao nível global pela homogeneização e o equilíbrio.

A palavra "entropia" foi criada por Rudolf Clausius, da fusão de energia com tropos (evolução) para designar a evolução de um sistema físico, servindo como medida de desordem. O aumento da entropia nos sistemas físicos marca a direção do tempo. Este novo conceito veio a corroer aquilo que tinha se tornado o motor da física e o termo-chave da era industrial: a energia.

Boltzmann e Gibbs desenvolveram neste ponto um dado novo, introduzindo a probabilidade estatística. Sendo enormes o número de moléculas e as configurações que podem assumir num sistema, só se podem apreender de modo probabilístico, como já havia percebido Maxwell. Disse Wiener que é à introdução das probabilidades em Física que se deve à primeira grande revolução provocada da Física do século XX, mais do que a Einstein, Heinsenberg ou Planck.

Com os trabalhos de Boltzman sobre a cinética dos gases é que se ligou o conceito de entropia com o de desordem molecular, e entropia passou a ser uma medida da desordem do movimento das moléculas de um corpo. Boltzman mostrou a relação entre a entropia e a probabilidade, através da equação em que a entropia de um estado é proporcional ao logaritmo da probabilidade desse estado.

As configurações mais desordenadas são as mais prováveis, e as ordenadas as menos prováveis. Então o aumento da entropia torna-se a passagem das configurações menos prováveis às mais prováveis. Ou seja, a desordem e a desorganização identificam-se com a maior probabilidade física no caso de um sistema fechado.

Wiener, no capítulo "A Organização como Mensagem", do livro Cibernética e Sociedade, dedicado à metáfora do organismo visto como mensagem (referiu-se a Bronowski, que assinalou que a Matemática, tida como a mais factual das ciências, constitui a mais colossal metáfora imaginável), escreveu: "O organismo se opõe ao caos, à desintegração, à morte, da mesma maneira por que a mensagem se opõe ao ruído. ... os organismos tendem a se manter e mesmo a aumentar o nível de organização, como um enclave local no fluxo geral de crescente entropia, de caos e de desdiferenciação crescentes. A vida é uma ilha, aqui e agora, num mundo agonizante. Não passamos de remoinhos num rio de água sempre a correr. Não somos material que subsista, mas padrões que se perpetuam a si próprios".

Os sistemas biológicos combinam complexidade crescente com auto-conservação, agindo de modo anti-entrópico. O processo pelo qual os seres vivos resistem ao fluxo geral de corrupção e desintegração é designado pelo termo homeostase.

Nenhum comentário: