(in. Entropy fr. Entropie; al. Entropie; it. Entropia).
A noção de entropia está vinculada ao segundo princípio da termodinâmica, formulada por Sadi Carnot em 1824 e enunciada em termos matemáticos por Clausius (1850). Esse princípio afirma que o calor só passa do corpo mais quente para o corpo mais frio, e que em toda transformação de energia num sistema fechado ocorre a degradação da energia, ou seja, a perda da energia total disponível no sistema. Chama-se degradação a passagem de uma forma de energia para outra forma que não possa ser acompanhada pela transformação inversa completa. Assim, é sempre possível a transformação completa de energia mecânica em calor, mas a transformação inversa nunca é completa porque só uma parte do calor pode ser transformada em energia mecânica. O calor, portanto, é considerado uma forma inferior ou “degradada” de energia; por isso, o segundo princípio da termodinâmica é chamado de “princípio de degradação da energia”. entropia é a função matemática que exprime a degradação da energia que infalivelmente ocorre em toda transformação. O princípio da entropia chamou sempre a atenção dos filósofos, porque estabeleceu, em nível científico, a irreversibilidade dos fenômenos naturais. De fato, para a mecânica clássica ou newtoniana, todos os fenômenos são reversíveis.- para eles, o tempo pode transcorrer indiferentemente em uma ou outra direção, do passado para o futuro ou do futuro para o passado. O t das equações que exprimem o comportamento dos fenômenos mecânicos é uma variável contínua, que não tem sentido determinado. O princípio da entropia, ao contrário, estabelece um sentido para os fenômenos, qual seja, a sua irreversibilidade no tempo. Cientistas e filósofos do fim do séc. XIX algumas vezes se dedicaram à previsão da morte do universo pela degradação total da energia, ou seja, pelo alcance do máximo de entropia, ou a excogitar possíveis meios de salvar o universo dessa morte (cf., p. ex., S. Arrhenius, L’évolution des mondes; trad. fr., Seyrig, 1910). Outros deram uso mais filosófico à noção, entrevendo nela a estrutura fundamental do tempo, ou seja, a sua irreversibilidade. Reichenbach utilizou a entropia para a determinação da direção do tempo. “A direção do tempo expressa-se para nós nas direções dos processos dados pelos sistemas parciais, que são numerosos no nosso ambiente. Todos esses processos vão na mesma direção, a direção da entropia crescente. Esse fato está estreitamente ligado ao crescimento geral da entropia do universo, e é através da reiteração desse fato nos sistemas parciais que o desenvolvimento da entropia no universo nos indica a direção do tempo” (The Direction of Time, 1956, p. 131). Na verdade, a ciência hoje não parece autorizar a transposição dos sistemas fechados ou parciais, nos quais vale a entropia, para o sistemaf geral do universo. Assim, não é fácil dizer qual o valor das especulações filosóficas em torno dessa noção. Na teoria da informação, a partir das obras de Shannon e Wiener, utilizou-se o conceito de entropia para medir a falta de informação sobre os detalhes da natureza de um sistema. Como a entropia é constituída pela equivalência entre as possibilidades de desenvolvimento de um sistema, a informação, ao eliminar algumas dessas possibilidades, é uma entropia negativa. Estabelece-se, assim, a equivalência entre entropia e falta de informação e entre informação e entropia negativa. Mas como, na transmissão de qualquer informação, tem-se uma perda de informação, admite-se que, assim como nos sistemas físicos, a entropia tende a crescer também no campo da informação; por isso, a medida da informação pode ser definida pelo crescimento correspondente da entropia negativa. [Abbagnano]
A noção de entropia é extremamente importante em física; seu uso nas teorias da informação e da comunicação tem levado a intensas polêmicas. Vejamos primeiro seu sentido físico, e depois seu sentido informacional.
A entropia está fisicamente associada ao processo termodinâmico da transformação do calor em trabalho. O processo inverso, estudado por Benjamin Thompson, Conde Rumford na Baviera (1798) e por James Prescott Joule (1840 e 1849), levou ao “princípio de Mayer” (1842), que se tornou na Primeira Lei da Termodinâmica, e que postula a conservação da energia no universo. Reduzido a dimensões práticas, o princípio de Mayer afirma que podemos transformar trabalho em calor com uma eficiência (teórica) de 100%; no entanto, sabe-se que a transformação inversa, do calor em trabalho, apresenta eficiências muito inferiores a esta eficiência total. Fazendo investigações a respeito, em 1824 Sadi-Carnot concebeu uma máquina (ideal) que, sem nenhuma perda por atrito, era capaz de transformar calor em trabalho mecânico. Esta máquina funcionava num ciclo de Carnot: (1) o gás (ou vapor) retirava calor de alguma fonte quente, e se expandia sem que a sua temperatura interna se modificasse; (2) em seguida, o gás se expandia mais ainda, não perdendo calor, mas sofrendo uma queda na sua temperatura (para equivaler ao trabalho mecânico de expansão realizado) . (3) Resfriando-se, o gás era novamente mantido a uma temperatura constante, cedendo calor, e (4), novamente se impedindo a transmissão de calor, o gás era recomprimido até a temperatura e volume iniciais do ciclo. A eficiência teórica desta máquina nunca chega a 100% (seus valeres máximos teóricos habituais estão na ordem de 40%; os valores reais são ainda bem inferiores, por volta de uns 20 a 25%). Num ciclo de Carnot, mostra-se como (Q2/T2) — (Q1/T1) = 0, onde Q2 é o calor cedido ao gás na etapa (1), estando o gás à temperatura T2, e Q1 é o calor cedido pelo gás na etapa (3), sendo sua temperatura igual a T1. À grandeza (Q/T) chamamos entropia, e, para um sistema a uma dada temperatura (absoluta) T, a variação da entropia, dS, é dada pela relação dS = dQ/T, onde dQ é a quantidade infinitesimal de calor aceitada ou rejeitada pelo sistema. Foi Clausius (1850) quem definiu a função S; para qualquer processo termodinâmico, Clausius mostrou que dS maior ou igual a 0. Esta expressão sintetiza a Segunda Lei da Termodinâmica: a entropia de um sistema não decresce espontaneamente, e a variação da entropia do sistema, mais a variação da entropia do universo, é sempre igual ou maior que zero.
Como compreender o que seja a entropia? Ela está intimamente ligada à noção de tempo. Fisicamente, o tempo é tratado ou como uma “dimensão” espacial a mais ou como o parâmetro conveniente para caracterizar os diferentes estados de um sistema. No entanto, uma análise mais cuidadosa mostra que o tempo objetivo, o tempo das ciências naturais, só pode ser estruturado se lhe associamos (1) uma unidade de medida e (2) uma direção preferencial. O tempo intuitivo parece “fluir”, mas como nos é possível objetificar, manipular este fluxo? A “medida” do tempo é dada através de processos cíclicos, isto é, através de processos que se repitam “em diferentes momentos” de nossa experiência intuitiva: o dia, o ano, as estações são os primeiros processos deste tipo que encontramos. E o “sentido” do tempo é dado pelos processos evolutivos, pelo crescimento das plantas, animais e pessoas. Num nível muito mais formal, a entropia, tendendo a aumentar, nos fornece o sentido preferencial necessário à objetificação do tempo. Uma boa discussão em torno destas questões está em. Tentando compreender o motivo desta “tendência” da entropia, Ludwig Boltzmann mostrou em 1896 que (baseando-se numa teoria atômica dos gases), S2 — S1 = k log (p2/p1), onde S2 e S1 são entropias do gás nos estados 2 e 1, respectivamente, e p2 e p1 são “probabilidades” associadas àqueles estados. A interpretação de Boltzmann — que se funda na hipótese do “caos molecular” — leva a crer que num sistema físico, a tendência seja passar-se de um estado de “menor desordem” (já que são estes os estados de menor probabilidade) para um estado de “maior desordem”. Decorrem desta interpretação as considerações (perigosamente pouco fundadas) no sentido de que o universo caminharia para a “morte térmica”, para um estado final de homogênea máxima desordem. O teorema de Boltzmann foi contestado (num debate clássico) por Poincaré, que mostrou como — para sistemas iguais aos considerados por Boltzmannt~e sem a restrição da hipótese do “caos molecular” — há uma tendência, no fim de um tempo calculável, a que configurações pelas quais o sistema já passou se repitam. O debate em torno do resultado de Boltzmann é, aparentemente, insolúvel dentro da teoria da termodinâmica. Um dos muitos paradoxos levantados em torno da relação de Boltzmann é o paradoxo do “demônio de Maxwell”. O demônio de Maxwell seria uma criatura tão pequena quanto uma molécula, e capaz de “organizar” as partículas constituintes de um gás, deste modo violando a segunda lei da Termodinâmica. Em 1929 Leo Szilard “resolveu” este paradoxo, propondo que a diminuição de entropia do sistema poderia ser contrabalançada pelo aumento da entropia do demônio, que deveria se informar — através de alguma troca de energia com as partículas — a respeito dos estados do sistema gasoso. Na década de quarenta, quando foi desenvolvida a relação de Wiener-Shannon como uma medida da “quantidade de informa-çã” associada a uma mensagem transmitida por um sistema de comunicação, percebeu-se a estreita analogia formal entre esta relação e aquela de Boltzmann. Uma série de teóricos, entre os quais o próprio Norbert Wiener, a partir desta analogia formal, tentou identificar a “entropia” termodinâmica à “quantidade de informação” estatística. Esta identificação — que é corrente em todas as obras de divulgação a respeito da teoria da informação — e que é proposta inclusive em trabalhos muito sérios, foi violentamente contestada, em nome de certo realismo filosófico, por Rudolf Carnap e Yehoshua Bar-Hillel, entre outros. O debate está em aberto. A vulgarização que se fez da noção de entropia como uma medida da “desordem” de um sistema levou inclusive à tentativa de se caracterizar a obra-de-arte como algo de maior “carga informativa” que outras formas de produção análogas: um discurso convencional não é “obra-de-arte” porque sua taxa informacional é baixa (ou porque sua entropia é alta). Assim, Caetano Veloso é “melhor” que Chico Buarque de Hollanda porque suas canções tem “maior quantidade de informações” que aquelas de Chico Buarque. Há, evidentemente, alguma coisa de grotesco em tal análise. Em primeiro lugar, quantidades de informações só são comparáveis se os constituintes elementares das diferentes mensagens forem idênticos. Ora, ninguém até hoje realizou uma “atomização” livre de críticas de uma obra de arte. Mais ainda: uma simples análise de algumas obras de arte pode mostrar como há algo de fundamentalmente ambíguo, de essencialmente orgânico até naquilo que chamaríamos de “elemento característico” de um artista. Por exemplo: uma cadência muito comum nas obras de Carl-Maria von Weber se transformou no tema do Venusberg do Tannhäuser de Wagner, e foi herdado por Richard Strauss nas passagens “características” das cordas em seus poemas sinfônicos (e em especial no Don Juan e no Vida de Herói). Quer dizer: uma transição inter-temática em Weber passa a ser, com Wagner, um motivo, e em Richard Strauss é o elemento comum (o elemento que fornece a unidade de estilo) a diversos temas. Da mesma maneira, os primeiros compassos do prelúdio do Tristão e Isolda (o tema que Lavignac chama “A Confissão”) levaram aos temas que abrem os adágios das duas últimas sinfonias de Bruckner, e que conduzem à desintegração tonal do quarto movimento da Nona Sinfonia de Mahler e do primeiro movimento da Décima; a história deste motivo termina, talvez, nas escalas iniciais do Concerto para Violino de Alban Berg. Uma análise cuidadosa desta evolução “orgânica” de uma figuração musical nos leva a crer como uma análise “atomística” da obra-de-arte — conforme a realizada pela teoria da informação empregada na estética — não é satisfatória a uma tentativa de compreensão do fenômeno estético. Quer dizer: entropia não tem grande coisa a ver com arte. (Francisco Doria – DCC)