Direkt zum Inhalt

Lexikon der Mathematik: Entropie, physikalische

additive Zustandsfunktion S des thermodynamischen Systems.

Ein beliebiger Kreisprozeß wird durch eine Folge von infinitesimalen Carnotschen Kreisprozessen (Carnotscher Kreisprozeß) angenähert. Zu dem eigentlichen Prozeß wird also eine Folge von reversiblen Kreisprozessen angegeben, die das System in den Ausgangszustand zurückführen. Dann gilt \begin{eqnarray}\displaystyle \oint \frac{\delta Q}{T}=0.\end{eqnarray}

In den Beweis dieser Beziehung geht die Clausiussche Fassung des zweiten Hauptsatzes der Thermodynamik ein, die hier als Axiom genommen wird.

Daraus folgt für einen einfach zusammenhängenden Raum der das System beschreibenden Variablen die Existenz der Zustandsfunktion S mit dem Differential \begin{eqnarray}dS=\frac{\delta Q}{T}\end{eqnarray} (zu beachten ist dabei, daß sich δQ auf einen reversiblen und i. a. nicht den interessierenden Prozeß bezieht).

Die Abnahme der Entropie bei einem Vorgang in einem abgeschlossenen System würde die Konstruktion eines perpetuum mobile (zweiter Art) möglich machen und ist somit ausgeschlossen.

Die Entropie ist bis jetzt nur bis auf eine additive Konstante bestimmt. Der sog. Nernstsche Wärmesatz beseitigt diese Unbestimmtheit.

Geht ein adiabatisch abgeschlossenes System quasistatisch von einem Gleichgewichtszustand in einen anderen über, ändert sich seine Entropie nicht. Für ein System, das durch Druck p, Volumen V und Temperatur T vollständig beschrieben wird, ist die Entropie eine zweidimensionale Fläche im Raum der angegebenen Variablen (Entropiefläche). Ist das System jedoch komplexer, „bewegt“ sich das System auf einer Entropiemannigfaltigkeit.

Werden thermodynamische Systeme mit statistischen Methoden beschrieben, läßt sich die Entropie S mit dem statistischen Gewicht W eines Makrozustandes über die Boltzmannsche Gleichung S = k ln W (k die sogenannte Boltzmann-Konstante) in Beziehung setzen. Sie ist hier als ein Mittelwert anzusehen.

Der zweite Hauptsatz der Thermodynamik läßt eine Richtung im zeitlichen Ablauf der Prozesse in einem abgeschlossenen System erkennen. Nach der phänomenologischen Thermodynamik ist sie durch das Anwachsen der Entropie gegeben. Zufolge der Statistik ist die wahrscheinlichste Veränderung des Systems in Richtung einer monotonen Zunahme der Entropie. Schwankungen, die auch zeitweilig zu einer Abnahme der Entropie führen können, sind äußerst unwahrscheinlich.

Nach der klassischen Mechanik ist dagegen zu einem gegebenen zeitlichen Ablauf auch der Vorgang möglich, bei dem alle Zustände in umgekehrter Reihenfolge durchlaufen werden. Eine auf der klassischen Mechanik gegründete Statistik sollte diese Eigenschaft widerspiegeln und auch die monotone Abnahme der Entropie zulassen. Siehe hierzu sowie allgemein zur Bedeutung der Quantenmechanik die Bemerkungen in [1].

[1] Landau, L. D., Lifschitz, E. M.: Lehrbuch der Theoretischen Physik Bd. V. Akademie-Verlag Berlin, 1979.
[2] Sommerfeld, A.: Thermodynamik und Statistik. Akademische Verlagsgesellschaft Leipzig, 1962.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Die Autoren
- Prof. Dr. Guido Walz

Partnervideos