Nota: Em alguns aspectos, outro post apresenta o que está aqui de forma melhor e mais detalhada, porém, mais matemática.
Edição: 22/08/08, em versão anterior, eu atribui a Carnot o conceito de entropia e a demonstração de que Q/T é maior ou igual a zero. Parece que, na verdade, isto foi devido a Clausius.
para variação de calor em um processo a temperatura T. Clausius chamou o lado esquerdo da desigualdade de entropia.
Hoje em dia entende-se que o que é fundamental e universal para todos os sistemas físicos macroscópicos é a existência de uma função S da energia U, volume V, número de partículas que constitutem o material N, e possivelmente outras variáveis como campos elétricos e magnéticos: S = S(U,V,N, ...). Postula-se a existência dessa função, chamada de entropia, assim como suas propriedades, o que define a segunda lei da Termodinâmica. Isso deixa bem claro quais são as regras do jogo, as leis fundamentais da Natureza, assim como se faz com a formulação da lei de Newton (a existência de uma função vetorial F, da posição, velocidade e do tempo, que satisfaz F = ma, e que se chama de força).
Mas toda matéria é feita de átomos. E cada átomo tem propriedades como a sua posição, velocidade relativa a um certo referencial, massa, energia, etc. Não entra entropia na lista. Se toda a matéria é feita de átomos, de onde vem a existência dessa função S?
A interpretação usual da entropia é chama-la de uma medida de desordem. Quase todos os físicos interpretam assim. Não só vaga e subjetiva, essa interpretação é incorreta. Vejamos o caso de um sistema ferromagnético (como o ferro). Abaixo de uma certa temperatura
, o material cria um campo magnético externo. Isso é porque cada átomo contém um certo dipolo magnético , que é uma espécie de "carga" magnética. A energia de dois dipolos é dada por , então a energia mínima é alcançada quando os dipolos apontam na mesma direção. Quando a energia de agitação térmica é bem maior que a de ligação dos dipolos, estes são nocauteados em direções aleatórias, e ai a soma sobre todos os átomos dá um campo magnético zero. Se baixarmos suficientemente a temperatura, o acoplamento magnético vence a agitação térmica e o material adquire um campo magnético externo. Nesse estado, todos os dipolos magnéticos estão alinhados: a ordenação do sistema é máxima. Se imaginarmos desalinhar os momentos magnéticos a temperaturas , o sistema vai sair de um estado desordenado para um ordenado, e vai aumentar a entropia, pela segunda lei da Termodinâmica. Dai aumentamos a entropia do sistema e a ordem também.A entropia foi vinculada as variáveis microscópicas da Natureza por Ludwig Boltzmann. Ele mostrou que o logarítmo do volume do espaço composto pelas variáveis microscópicas (como a posição e momento) é a entropia:
onde W é o volume do espaço das variáveis microscópicas, e k, a constante de Boltzmann, é uma constante que fixa as unidades. Com a equação de Boltzmann, agora podemos entender melhor o que significa a entropia.
A interpretação correta da entropia tem a ver com o conceito de informação. O conceito foi matematizado por Claude Shannon, que demonstrou que há uma medida (no sentido matemático da palavra, como a idéia de área e volume) que tem as propriedades que associaríamos intuitivamente com informação, e esta medida é exatamente a equação de Boltzmann! Na interpretação de Shannon, a entropia é uma medida da falta de informação sobre o sistema: escolhemos as variáveis U, V, N, e omitimos, por exemplo, as velocidades individuais das partículas; a medida (volume) da informação perida é a entropia S. Em dois artigos de 1957, o físico Edwin T. Jaynes, na época na Universidade de Stanford, mostrou o seguinte: a medida de informação do sistema, chamemo-la de S, é exatamente a fórmula de Boltzmann quando a falta de informação (no sentido de Shannon) é máxima. Dessa forma, podemos entender a entropia como sendo a medida de informação associada a um sistema de várias partículas, e o equilíbrio termodinâmico (a maximização da entropia) é alcançado quando há a menor quantidade de informação disponível sobre o sistema.
Então, o que é entropia? Um sistema físico composto por átomos seria em totalidade descrito pela posição, velocidade, momento magnético, etc., de cada átomo. Para um número muito grande de átomos, podemos ignorar essas variáveis e nos concentrar no número mínimo de variáveis coletivas do sistema como um todo: a energia total (de todas as partículas), o volume (a região do espaço ocupada por qualquer uma partícula), o número total de partículas, o campo magnético total, etc. Se mudarmos uma das variáveis, então podemos nos perguntar para onde vai o sistema? Isto é, qual o valor novo das novas variáveis? Por exemplo, se temos um gás dentro de um recipiente de volume V que não troca calor com meio externo, e então duplicarmos o volume, qual a nova temperatura? A resposta é a seguinte: o novo estado do sistema será tal que a quantidade de informação é a mínima possível (ou seja, a entropia é máxima, dados os vínculos do sistema).
Para finalizar, o conceito de informação de Shannon encontrou aplicação em outras áreas da Física também: sistemas dinâmicos, caos e complexidade, e também em computação quântica. Mas cada assunto desse é mais que um post...
Para saber mais:
- A Mathematical Theory of Communication, C. Shannon, online.
- E. T. Jaynes, Phys. Rev. 106, 620; Phys. Rev. 108, 171.
- H. Callen, Thermodynamics
- S. A. Salinas, Introdução a Física Estatística, Edusp.
9 comentários:
Dr. Motta,
Puxa, passei o ensino médio pensando em Entropia como uma medida da desordem de um sistema físico! Não poderíamos pensar assim nem que seja parcialmente? Como tratar desse assunto no ensino médio? Existe livro de 2º grau que trate desse conceito corretamente? Qual a temperatura 'Tc' daquele sistema ferromagnético? Se for muito baixa talvez a primeira pergunta possa ser respondida afirmativamente.
Fala Dr. Bruno!
Não é correto pensar em entropia como desordem nem parcialmente. Se quiser pode dizer que a entropia é uma espécie de medida de desordem, mas que não corresponde sempre a noção intuitiva de desordem. Algumas pessoas realmente adotam essa postura. Mas eu não a adoto, porque é como alguém querer chamar João de Francisco, quando João já tem nome. Shannon mostrou que informação é um conceito que admite matematização que concorda com a noção intuitiva. Já desordem não admite essa matematização, então é melhor deixar de lado.
Sobre livros de 2o grau, não conheço. Até o livro do Feynman e do Herbert Callen interpretam entropia como desordem.
A temperatura de Curie depende do material, mas é algo em geral Tc ~ 200 K.
Não é difícil entender o conceito de entropia sem associar diretamente ao grau de desordem. Se esse conceito fosse passado no ensino médio exercitaríamos um senso analítico que seria muito mais útil pra nossa vida.
Respondendo a anônimo:
Anônimo, não sei se você entendeu o post. Pode não ser difícil ensinar entropia como desordem, mas é incorreto. É como dizer que é intuitivo ensinar no colégio que força peso é a mesma coisa que massa -- o que também é incorreto.
Desordem é algo intuitivo, mas não tem definição matemática. Já informação possui.
"Se imaginarmos desalinhar os momentos magnéticos a temperaturas T < Tc , o sistema vai sair de um estado desordenado para um ordenado, e vai aumentar a entropia, pela segunda lei da Termodinâmica. Dai aumentamos a entropia do sistema e a ordem também."
Esse trecho esta mesmo correto? Se T e menor que Tc, o sistema esta no estado ordenado com os momentos magneticos alinhados. Se voce desalinha de alguma forma esses momentos em T < Tc, voce aumenta a entropia do sistema e o desalinhamento dos momentos magneticos aumenta o numero de estados acessiveis ao sistema, gerando uma maior "desordem" nao??
Se você desalinhar os spins, você de fato desorganiza o sistema no sentido intuitivo da palavra. Mas os estado macroscopico com maior entropia é o estado de equilibrio, que é aquele em que os spins estão organizados. Se o sistema a T < T_c com spins com campo magnético nulo tivesse maior entropia que o sistema com campo magnético macroscópico não-nulo, a segunda lei da Termodinâmica seria violada -- ou para T < T_c não deveria existir campo magnético.
Nao sei se entendi o que voce quis dizer Leonardo. O estado macroscopico do equilibrio e o de maior entropia, o que no caso do sistema supracitado se refere ao estado com spins alinhados. Esse e o estado de entropia maxima para energias menores que Tc. Para que haja producao de campo magnetico externo em T < Tc, e obvio que deve haver algum tipo de perturbacao externa de maneira a inserir energia no sistema, e assim aumentar a entropia do mesmo ate que ele chegue a um novo estado de equilibrio, que vai obviamente depender dos parametros perturbativos. O problema aqui nao e o conceito de desordem, e obvio que o mesmo e arbitrario ao contrario de informacao que possui uma definicao matematica. Mas o estado com spins alinhados em T < Tc representam para aquela temperatura e por conseguinte quantidade de energia disponivel, o estado de desordem maxima do sistema. O conceito de desordem deve andar alinhado a quantidade de energia (isto e, se a energia e insuficiente, nao e capaz de provocar desordem), para assim chegar a uma definicao fisica simples, e que eu particularmente mais gosto, de entropia: e uma medida da dispersao de energia nos estados acessiveis ao sistema.
"Para que haja producao de campo magnetico externo em T < Tc, e obvio que deve haver algum tipo de perturbacao externa de maneira a inserir energia no sistema"
Na verdade, para T < T_c, não há necessidade de nenhum agente externo para existir campo magnético macroscópico. Abaixo da temperatura Tc, o sistema adquire um campo magnético espontaneamente. E o ponto é esse: para T < T_c, o sistema está em equilíbrio e possui entropia máxima para um conjunto de estados em que os spins estão alinhados, e portanto, organizado no sentido intuitivo da palavra. Por isso que, para T < T_c, o sistema com spins alinhados não representa os estados de maior desordem, embora seja o de maior entropia. Pelo menos não se você está falando desordem no sentido dos spins terem correlação zero:
< J_i J_k > ~ 0
Mas você está certo que é possível redefinir desordem de modo a consertar isso, dizendo algo como você disse: para T < T_c, como a correlação não é nula para os spins, os estados com correlação aproximadamente zero não representam mais os estados mais desorganizados para T < T_c. Quer dizer, o vínculo T < T_c muda que estados são acessíveis. Mas isso é apenas forçar a barra, quer dizer, é insistir que entropia = desordem e ai verificar qual o estado de maior entropia para depois disso concluir que, mesmo contra-intuitivamente, para T < T_c, os estados de maior "desordem" são os estados em que os spins estão organizados!
Você tem que tomar cuidado com a definição de entropia em termos de energia. É possível definir entropia para sistemas em que a energia não pode ser definida, a exemplo dos gravitacionais ou dos sistemas dinamicos dissipativos. A exemplo dos gravitacionais, para todo observador em um campo gravitacional eu posso eregir um cone de luz local e definir a entropia do sistema externo ao cone de luz. Esse sistema não tem energia, e no entanto tem entropia. Ou ainda, a entropia do horizonte de De Sitter, novamente, o observador define entropia para um sistema que não admite energia.
ps. e a entropia de De Sitter é termodinâmica, com temperatura, e o sistema é um corpo negro. No entanto, não tem energia interna.
Postar um comentário