Entropie w [von griech. entropia = Hinwendung auf sich selbst], eine thermodynamische Zustandsgröße (Formelzeichen S), durch die das Maß des mikrophysikalischen Unordnungszustands (L. Boltzmann, 1866) beschrieben wird ( vgl. Infobox ). Prozesse in abgeschlossenen Systemen können grundsätzlich nur unter Vermehrung von Entropie (d.h. Zunahme des Wahrscheinlichkeits- bzw. Unordnungsgrades) ablaufen, weshalb hier Δ S, die Differenz zwischen den Entropiewerten von Endzustand und Ausgangszustand, immer positiv (Δ S > 0) ist. Über den 2. Hauptsatz der Thermodynamik steht die mit einem Prozeß einhergehende Änderung der Entropie (Δ S) mit dem Gesamtenergieumsatz Δ H und der in Arbeit umwandelbaren freien Energie Δ G in Beziehung (Enthalpie). Nach diesem Hauptsatz ist es unmöglich (da die Temperatur T immer > 0), die bei chemischen Reaktionen umgesetzten Energien (chemische Energie, chemisches Gleichgewicht) vollständig in Arbeit umzuwandeln. Vielmehr ist die in Arbeit umwandelbare freie Energie Δ G immer um den Betrag T Δ S geringer als die umgesetzte Gesamtenergie Δ H. Entropieunterschiede (Δ S) sind identisch mit den bei umkehrbaren Prozessen (wie z.B. den reversiblen chemischen Reaktionen; reversible Vorgänge) ausgetauschten bzw. an die Umgebung abgegebenen Wärmemengen, bezogen auf die absolute Temperatur (R. Clausius, 1850). Gleichzeitig ist die Entropiedifferenz ein Maß für die Umkehrbarkeit physikalischer und chemischer Prozesse. – In der Informationstheorie wird Entropie (hier häufig als H symbolisiert) als Maß für den wahren Nachrichteninhalt eines Symbols oder auch für den mittleren Informationsgehalt (Information) der Sprache verwendet (C.E. Shannon, 1948). Energiekonservierung.