Dona Fifi aos 19 anos.


Entropia, probabilidade e desordem


A definição de "ENTROPIA" que apresentei na seção anterior precisa ser modificada para corresponder melhor com a definição técnica, usada pelos físicos. Como vimos, a entropia de um macroestado é proporcional ao número de microestados nesse macroestado. E sabemos que a probabilidade de um macroestado ocorrer proporcional ao número de microestados que ele contém. Basta lembrar o exemplo das mãos de bridge para entender isso. No entanto, há um problema. A entropia pode ser definida de outras maneiras e nessas maneiras ela é uma quantidade aditiva. Isso significa o seguinte. Se um sistema A tem entropia SA e um sistema B tem entropia SB, um sistema C, composto dos sistemas A e B, deve ter entropia SC = SA + SB.
No entanto, probabilidades são quantidades multiplicativas. Por exemplo, a probabilidade de obtermos um CINCO, ao lançarmos um dado, é 1/6. Se lançarmos dois dados, a probabilidade de obtermos dois CINCOS consecutivos é 1/6 x 1/6 = 1/36.

Entropias se somam, mas, probabilidades se multiplicam. Como, então, relacionar a entropia de um estado com a probabilidade desse estado? Para contornar essa dificuldade, Boltzmann optou por definir a Entropia como proporcional ao logaritmo da probabilidade do macroestado.

Lembre da matemática que aprendeu no colégio: se tivermos C = A x B, teremos log C = log A + log B.

Portanto, se um sistema tem um macroestado A, com probabilidade WA e entropia SA, e outro sistema tem um macroestado B, com probabilidade WB e entropia SB, a probabilidade de achar o conjunto dos dois sistemas nesses estados, simultaneamente, será W = WA x WB, que corresponde à entropia total S.

Tomando os logaritmos nos dois lados, temos log W = log WA + log WB.

Então, se dissermos que a entropia do macroestado A é SA = k x log WA, e a entropia do macroestado B é SB = k x log WB, teremos

S = SA + SB, onde S = k x log W é a entropia dos estados A e B juntos.

Desse modo, segundo Ludwig Boltzmann, a entropia S de um sistema que está em um estado cuja probabilidade é W, é escrita como S = k x log W. Essa constante de proporcionalidade k é chamada de constante de Boltzmann. Outra vantagem de usar essa definição da entropia ligada ao logaritmo da probabilidade decorre do fato de que, em geral, estaremos lidando com números muito grandes. Melhor que manusear um número como 100.000.000.000, por exemplo, é usar seu logaritmo que vale 11 (igual ao número de zeros), bem mais doméstico. Nos casos reais da física, o número de microestados costuma ser gigantesco.

O logaritmo usado na fórmula de Boltzmann é o logaritmo natural (base e), e não o decimal (base 10), mas, o argumento é o mesmo.

Considere, por exemplo, o problema de contar os microestados possíveis em uma caixa com um gás como o ar. Para isso, podemos imaginar a caixa dividida em seções e contar quantas moléculas tem cada seção. Um macroestado A, como na figura de cima, seria aquele em que a seção 1 tem 3 moléculas, a seção 2 tem 4, e assim por diante. A probabilidade desse macroestado seria dada pelo número de maneiras distintas (microestados) de distribuir as moléculas mantendo a configuração. Por exemplo, trocando uma molécula da seção 1 com outra da seção 2, teríamos um microestado diferente, correspondente ao mesmo macroestado.
Duas coisas são claras. Primeiro, se o número de moléculas for grande, o número de microestados correspondentes a um dado macroestado é enorme. Segundo, é fácil ver que um macroestado como o de cima é muito mais provável que um macroestado como o de baixo, pois o de cima tem muito mais microestados.

Se o gás fosse colocado na caixa do jeito mostrado na figura de baixo, em um instantinho ele se espalharia e teria um jeitão parecido com a figura de cima. Agora, veja: a probabilidade de se encontrar o gás nos dois jeitos é exatamente a mesma! Lembre do caso das mãos de bridge. Entretanto, o número de jeitos (microestados) de distribuir as moléculas de modo a ter o mesmo número em cada seção (macroestado) é diferente, nos dois casos. Esse número é muito maior para a configuração da figura de cima. Isto é, a entropia do gás na figura de cima é muito maior que a entropia na figura de baixo. Isso nos leva a outra maneira (mais uma!) de enunciar a Segunda Lei da Termodinâmica:

"Todo sistema físico sempre evolui, espontaneamente, para situações de máxima entropia."

O número de microestados pode, também, ser usado como uma medida da desordem do sistema. Nesse contexto, a desordem do gás na figura de cima é maior que a desordem na figura de baixo. E isso nos leva a mais uma forma de enunciar a Segunda Lei da Termodinâmica:

"Todo sistema natural, quando deixado livre, evolui para um estado de máxima desordem, correspondente a uma entropia máxima."

Agora, pense em alguns eventos naturais, desses que ocorrem a todo instante. Um copo que cai e se quebra, um papel que se queima, uma xícara de café que esfria, uma pilha que descarrega, a gente que envelhece, "a vida inteira que poderia ter sido e que não foi". Nada disso precisaria acontecer, ou, se acontesse, poderia sempre ser revertido, se não existisse a danada da Segunda Lei da Termodinâmica.


Apostila 6: As atribulações de Ludwig Boltzmann.

Apostila 7: Entropia de um buraco negro.