01.03.2015 Views

Livro CI 2008

Livro CI 2008

Livro CI 2008

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Termodinâmica e Complexidade em Sistemas Biológicos<br />

Então, expressando entropia de uma maneira probabilística, o sistema tem uma<br />

probabilidade pi de estar num instante qualquer em qualquer um dos W os microestados,<br />

onde ∑ipi=1, para isso, temos que:<br />

S = -kB ∑i pi ln pi<br />

(PIQUEIRA & MONTEIRO, 2000).<br />

A grande contribuição da definição estatística da entropia é fazer a ligação entre os<br />

estados macroscópicos com os microscópicos. É importante ressaltar que, apesar de agora<br />

podermos calcular a entropia sem estar necessariamente associada A fluxos de calor e<br />

energia, as duas formulações são essencialmente a mesma coisa, e os conceitos<br />

inicialmente definidos continuam valendo. Sendo assim, pensar a entropia nesta abordagem<br />

molecular pode ser uma forma mais fácil (e correta) de entender o conceito.<br />

Entropia e os sistemas vivos:<br />

“Seres vivos são sistemas termodinâmicos fora do equilíbrio”. Esta frase talvez cause<br />

certo impacto ao ser lida, no entanto o quanto ela pode ter de verdade? Se considerarmos<br />

entropia como o grau de organização apresentado por um sistema, então, realmente, ela faz<br />

sentido. Seres vivos mantêm organização interna, à custa de criar desordem no meio<br />

externo, ou seja, operam em baixos níveis de entropia, mas aumentam a entropia presente<br />

no ambiente. Isso, lógico, se tomarmos entropia como o grau de desorganização do sistema<br />

observado.<br />

Isso foi proposto por Schroedinger em 1944 (MONTEIRO & PIQUEIRA, 2000), no<br />

entanto Ilya Prigogine leva estas idéias mais a fundo. Em seus trabalhos com sistemas<br />

abertos (sistemas abertos são aqueles que trocam massa e energia com o ambiente), ele<br />

propõe que as mudanças de entropia nestes sistemas podem ser decompostas em uma<br />

medida de entropia que o sistema troca com o meio e uma medida de entropia de processos<br />

irreversíveis internos do sistema (e.g.: reações químicas). Nesse balanço de forças entre as<br />

entropias, é possível para este sistema atingir um estado onde sua entropia é menor que a<br />

do início sem infringir a segunda lei (PRIGOGINE, 1955, 1980; PRIGOGINE, 1972 a, 1972<br />

b, apud MONTEIRO & PIQUEIRA, 2000)<br />

Esse balanço entre entropias está associado a manter entropia interna baixa ao<br />

custo de uma geração de entropia alta no meio. Por exemplo, quando o sistema troca<br />

matéria com o ambiente (por exemplo, ingestão de alimento), ocorre uma variação de<br />

entropia. O sistema consegue compensar essa variação e assim manter uma entropia baixa<br />

aumentando a entropia externa (e. g. dissipação de energia térmica).<br />

Manter uma entropia interna baixa também é importante se lembrarmos que um<br />

aumento na entropia acarreta em uma menor capacidade de realizar trabalho. Assim,<br />

115

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!