Was ist Entropie (bitte leicht und verständlich erklären)?

7 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Entropie ist einer der abstraktesten Begriffe, die es in der Physik gibt, und daher gar nicht mal so einfach zu erklären. Entropie kann man nicht anfassen, sehen oder direkt messen. Auch viele Physiker, Chemiker und auch Physiklehrer haben mit diesem Begriff größte Schwierigkeiten und können kaum erklären, was Entropie eigentlich sein soll. Selbst bekannte Physiker wie Einstein oder Hawking hatten damit so ihre Probleme und teils sogar bezweifelt, ob es Entropie wirklich gibt oder ob das nicht bloß ein künstlicher menschgemachter Begriff sei. Inzwischen ist aber nachgewiesen, dass Entropie tatsächlich existiert und einen naturgesetzlichen Charakter hat. Insofern darfst du dich nicht ärgern, wenn auch du damit Schwierigkeiten hast, mit dem Begriff „Entropie“ etwas sinnvolles zu verbinden oder sie gar wirklich zu verstehen. Die diversen Zitate aus Lexikas dürften dir da auch kaum weiterhelfen. Daher versuche ich es mal etwas anders, Entropie zu erklären.

Was dir bekannt sein dürfte ist der Energieerhaltungssatz (1. Hauptsatz der Thermodynamik). Dieser Energieerhaltungssatz macht aber nur Aussagen über die Energiemenge.

Nun hat man aber im Laufe der Zeit festgestellt, dass Energie nicht nur nach ihrer Menge beurteilt werden kann, sondern dass Energie auch eine Qualität besitzt. Die Qualität der Energie bemisst sich danach, wie leicht man sie in andere Energieformen umwandeln kann. Die höchste Qualität besitzt dabei die Gravitationsenergie. Sie lässt sich mit Abstand am allerleichtesten in eine andere Energieform umwandeln, z.B. in kinetische Energie. Dazu braucht man einen Gegenstand nur loszulassen und er fällt von alleine nach unten, nimmt also Geschwindigkeit auf. Die geringste Qualität hat Wärmeenergie bei Umgebungstemperatur. So besitzt die Luft der Atmosphäre durch ihre Temperatur jede Menge innere Energie, aber mit dieser Energie z.B. eine Maschine zu betreiben oder einen Körper zu beschleunigen, ist praktisch unmöglich. Um die Qualität der Energie zu beschreiben, wurde der Begriff der Entropie eingeführt. Die Qualität der Energie bemisst sich also nach ihrer Umwandelbarkeit oder anders gesagt, nach ihrer Arbeitsfähigkeit. Denn das ist das wesentliche Merkmal von Energie: sie kann Arbeit leisten. Das kann sie aber nur solange, wie ihre Entropie gering ist.

Jetzt kommt noch eine Schwierigkeit beim Verständnis dazu, weil man sozusagen falschrum denken muss. Umso höher die Entropie, umso höher ist nicht die Qualität der Energie, sondern es ist genau umgekehrt. Je mieser die Qualität, umso höher ist die Entropie. Insofern kann man sich Entropie eher als ein Maß für „Energieabfall“ vorstellen, weil man mit Abfall nichts mehr anfangen kann.

Will das mal an einem Beispiel verdeutlichen. Wenn du irgendwo ein Kilo Äpfel kaufst, reicht nicht nur die Kenntnis der Menge, also 1 kg, denn musst du entsprechend der Qualität dieser Äpfel unterschiedliche Preise bezahlen.

Die teuersten Äpfel haben Handelsklasse A. Sie besitzen noch keine Entropie. Die sind makellos und die kann man unbeschränkt in andere Apfelprodukte umwandeln, sei es ein Apfel zum essen, in Apfelkuchen, Apfelsaft oder was immer du willst.

Äpfel der Handelsklasse B haben schon kleine Qualitätsmängel. Die bietet man nicht mehr unbedingt auf einer Obstschale zum Essen an, aber Apfelkuchen oder Apfelsaft kann man noch gut daraus machen.

Billig sind sogenannte Saftäpfel. Die kommen gar nicht mehr in den Handel, sondern werden nur noch zu Apfelsaft gemacht.

Die schlechteste Qualität haben völlig verfaulte Äpfel, denn aus denen kann man gar nichts mehr machen. Diese verfaulten Äpfel haben damit die maximale Entropie, sie bestehen nur noch aus Abfall.

Nun sagt der 2. Hauptsatz der Thermodynamik aus, dass in einem geschlossenen System die Entropie immer nur zunehmen, aber niemals abnehmen kann. Dieser Grundsatz gilt im gesamten Universum sowohl für die Energie als auch für die Äpfel.

Wenn du eine Kiste mit Äpfeln der Handelsklasse A hast, musst du nichts tun, damit die Entropie zunimmt. Die Äpfel faulen im Laufe der Zeit ganz von alleine. Es ist aber noch niemals beobachtet worden, dass aus einer Kiste mit fauligen Äpfeln im Laufe der Zeit von alleine Äpfel der Handelsklasse A wurden.

Energie verfault nicht, da spricht man von Entwertung oder Dissipation. Alle Energie strebt danach, entwertet zu werten und das geht auch von alleine. Alle Energie strebt dazu, sich letztlich in Wärme umzuwandeln. Bei allen praktischen Prozessen, bei denen Energie umgewandelt wird, entsteht meistens durch Reibung auch Abwärme, mit der man nichts mehr anfangen kann. In dieser Abwärme steckt die entstandenen Entropie. Diese Abwärme verringert immer auch den Anteil der Energie, der umwandelbar bzw. arbeitsfähig bleibt.

Um die Entropie in einem geschlossenen System zu verringern, also die Qualität anzuheben, muss immer Energie zugeführt werden, von alleine passiert das niemals. Hättest du also eine Kiste mit Äpfeln der mittleren Entropie, sprich die sind nur halbe verfault, könntest du Energie aufwenden, indem du überall das faulige wegschneidest und wegwirfst und aus dem Rest könntest du immerhin noch Saft machen. Genauso wäre das auch mit Energie. Um die Entropie in einem geschlossenen System zu verringern, musst du von außen hochwertige Energie zuführen. Der Energieabfall, also die Entropie, würde dann in der Umwelt landen und deren Entropie entsprechend erhöhen.

Häufig wird Entropie zu Beginn des Unterrichtes auch als ein Maß für die Unordnung bezeichnet. Bei geschlossenen Systemen ist das auch noch in Ordnung, bei komplexen Systemen führt diese Vorstellung aber in die irre. Hohe Ordnung bedeutet dabei hohe Qualität, also niedrige Entropie, während eine maximale Unordnung eine niedrige Qualität also maximale Entropie bedeutet.

Meist wird als Vergleich ein Zimmer angeführt. Ein frisch renoviertes, neu eingerichtetes, sauberes und aufgeräumtes Zimmer hat die höchste Wohnqualität, also die minimale Entropie. Wohnt man darin und macht ansonsten nichts, nimmt die Unordnung, die Verschmutzung, die Vermüllung konstant zu. Die Wohnqualität wird immer geringer, die Entropie nimmt ständig und ganz von alleine zu. Nur wenn man Energie aufwendet, kann man die Entropie wieder verringern. Dazu muss man putzen und aufräumen und den Schmutz und Abfall aus dem Zimmer hinausbefördern.

So könnte z.B. deine Mutter sagen: "Jetzt räume endlich mal dein Zimmer auf", während dein Vater, wenn er Physiker ist, zu dir sagen könnte: "Du solltest mal wieder die Entropie deines Zimmers verringern."

So, hoffe nun, dass dir die Entropie wenigstens ein bischen klarer vorkommt bzw. was dahinter steckt.

Woher ich das weiß:Studium / Ausbildung – Habe Thermodynamik im Hauptfach studiert.

Hamburger02  28.03.2018, 12:05

Was jetzt noch oben fehlt, ist eine Zusammenfassung. Die lautet:

Entropie ist ein Maß für die Qualität von Energie. Je höher die Entropie, umso mehr wurde die Energie bereits Richtung Abwärme entwertet und umso geringer ist ihre Fähigkeit, Arbeit zu leisten.

1
Schlomo824  19.08.2023, 11:38
@Hamburger02

"Entropie ist ein Maß für die Qualität von Energie. Je höher die Entropie, umso mehr wurde die Energie bereits Richtung Abwärme entwertet und umso geringer ist ihre Fähigkeit, Arbeit zu leisten"

Hier beziehst du dich darauf, dass die Entropie an die energie und ihre umwandelbarkeit geknüpft ist.

Hochwertige Energie mit geringer Entropie ist in der Lage Arbeit/Prozesse voranzutreiben, bei der dann ein Teil der Energie dissipiert und als Wärme frei wird.

"Meist wird als Vergleich ein Zimmer angeführt. Ein frisch renoviertes, neu eingerichtetes, sauberes und aufgeräumtes Zimmer hat die höchste Wohnqualität, also die minimale Entropie. Wohnt man darin und macht ansonsten nichts, nimmt die Unordnung, die Verschmutzung, die Vermüllung konstant zu. Die Wohnqualität wird immer geringer, die Entropie nimmt ständig und ganz von alleine zu. Nur wenn man Energie aufwendet, kann man die Entropie wieder verringern. Dazu muss man putzen und aufräumen und den Schmutz und Abfall aus dem Zimmer hinausbefördern"

Hier wiederum beziehst du die Entropie auf ein Zimmer als system, bei dem ein geordnetes Zimmer minimale Entropie besitzt.

Was stimmt denn nun?

0
Hamburger02  19.08.2023, 13:16
@Schlomo824
Was stimmt denn nun?

Je nach Anwendungsfall stimmt beides.

Wenn man Entropie mit Hilfe der statistischen Mechanik betrachtet und herleitet, beinhaltet die Entropie einen Ordnungsbegriff. Dieses Modell bzw. diese Betrachtungsweis gilt aber nur unter bestimmten Voraussetzungen:
- das System ist geschlossen
- das System befindet sich in der Nöhe des thermodynamischen Gleichgewichtes
- das System ist groß genug, dass das Boltzmannsche Gesetz der großen Zahl angewendet werdendarf.

Betrachtet man jedoch ein offenes System fernab des thermodynamischen Gleichgewichtes und/oder ist das Boltzmannsche Gesetz der großen Zahl nicht anwendbar, weil es sich um lokale Phänomene handelt, haben wir also kurz gesagt z.B. eine dissipative Struktur vor uns, führt die statistische Ordnungsbetrachtung völlig in die Irre und ist untauglich, das System zu verstehen. In diesem Fall ist alleine die allgemeingültige makroskopische Betrachtung der Entropie als ein Maß für die Qualität der Energie zielführend. Innerhalb dieser Betrachtungsweise ist die Entropie als Ordnungsbegriff ein Grenzfall für oben genannte Bedingungen.

0
Schlomo824  19.08.2023, 16:08
@Hamburger02

Danke für deine Antwort.

Könntest du das boltzmann Gesetz der großen zahlen erläutern?

0
Hamburger02  19.08.2023, 16:37
@Schlomo824

Damit eine Statistik zuverlässig ist, muss es eine Mindestanzahl an Srichproben geben. Bei der statistischen Mechanik, die auf Gibbs und Boltzmann zurückgeht, ist es nicht anders. Damit mit Hilfe der Statistik der Teilchen zuverlässige Aussagen über den Makrozustand des Systems getroffen werden können, muss eine Mindestanzahl an Teilchen beteiligt sind. Aus praktischen Gründen legt man diese Mindestanzahl bei 1 mol fest. Es müssen also mindestens 6 *10^23 Teilchen im System sein, damit das Gesetz der großen Zahl erfüllt ist und die statistischen Aussagen Boltzmanns zuverlässige Ergebnisse liefern.

0
Schlomo824  19.08.2023, 18:15
@Hamburger02

Das wurde doch bedeuten, dass dissipativen strukturen nicht überhalb der Boltzmann Zahl stattfinden können oder hab ich etwas falsch verstanden.

Und wie ist das zu erklären, dass im Universum (Sonnensystem, Galaxien Spiralen) vorhanden sind? Sind das auch dissipativen strukturen?

0
Hamburger02  19.08.2023, 21:14
@Schlomo824
Das wurde doch bedeuten, dass dissipativen strukturen nicht überhalb der Boltzmann Zahl stattfinden können oder hab ich etwas falsch verstanden.

Disspative Strukturen beginnen meistens auf molekularer Ebene, können sich dann aber auf ein ganzes System ausweiten. Das gesamte System hat sich dann vom thermodynamischen Gleichgewicht entfernt und weist starke Gradienten bzw. Inhomogenitäten aus. Aus einzelnen lokalen Stellen kann dadurch mittels Statistik nicht auch andere Bereiche innerhalb des Systems geschlossen werden.

Die menschliche Gesellschaft ist auch eine dissipative Struktur. Da kann ich auch nicht in einem Kindergarten eine Statistik aufstellen und deren Ergebnisse auf die gesamte Gesellschaft übertragen.

Und wie ist das zu erklären, dass im Universum (Sonnensystem, Galaxien Spiralen) vorhanden sind? Sind das auch dissipativen strukturen?

Ja, auch das sind dissipative Strukturen.

0
SlowPhil  29.03.2018, 08:33

Das ist ein eher populärer Ansatz, Entropie zu beschreiben. So lässt sie sich aber schlecht quantifizieren, und so habe auch ich seinerzeit nicht wirklich verstanden, was Entropie ist.

Das kam erst viel später, als ich die Statistische Theorie der Wärme kennenlernte.

1
Hamburger02  29.03.2018, 09:32
@SlowPhil

Das ist in der Tat ein "populärwissenschaftlicher" Ansatz. Allerdings hat die Herleitung über die statistische Thermodynamik den Nachteil, dass sich da häufig die Vorstellung von der Entropie als ein Maß für die Unordnung verfestigt, welche nur in geschlossenen Systemen nahe des thermodynamischen Gleichgewichtes gilt. Besonders bei offenen Systemen und ganz besonders bei Systemen fernab des thermodynamischen Gleichgewichtes (dissipativen Strukturen) versagt diese Vorstellung allerdings und ist nicht mehr aufrecht zu erhalten. Dort gilt auch nicht mehr die Grundlage der statistischen Herleitung, nämlich das Gesetz Boltzmanns von der großen Zahl.

0
SlowPhil  29.03.2018, 10:43
@Hamburger02

In der Vorlesung über Statistische Physik werden Begriffe deshalb ja auch erst einmal „mikrokanonisch“ eingeführt, bevor man später zur kanonischen und zur makrokanonischen Gesantheit und zum Nichtgleichgewicht kommt.

So bekommt man ein Feeling dafür, was Entropie eigentlich ist.

2
Hamburger02  29.03.2018, 15:20
@SlowPhil

Also ich sage mal so: wer sich wirklich intensiv und lange genug mit der Entropie beschäftigt, bekommt im Laufe der Zeit auch ein Gefühl und eine Intuition zur Entropie. Die bleibt aber den meisten, die die Entropie nur in der Grundvorlesung behandeln, verwehrt. Für die bleibt die Entropie oft ein schwer fassbares Schreckgespenst.

0
wotan38  17.06.2018, 17:38

Ergänzend zum besseren Verständnis der Hintergrund der Entropie. Wärme ist bekanntlich Bewegungsenergie der Moleküle. Die Moleküle eines Körpers bewegen sich auch, wenn der Körper sich bewegt. Es handelt sich auch um Bewegungsenergie. Worin besteht nun der Unterschied? Beim Körper bewegen sich alle Moleküle in die gleiche Richtung, nämlich in die Richtung, in die der Körper sich bewegt. Bei der Wärme bewegt sich jedes Mölekül in eine undefinierte Richtung. Das ist vergleichbar mit einer Kompanie marschierender Soldaten und einer Ansammlung von frei sich bewegenden Menschen auf einem Marktplatz. Das entscheidende ist dabei, dass bei einer definierten Ordnung diese leichter in Unordnung gebracht werden kann als umgekehrt aus einer Unordnung wieder eine Ordnung zu schaffen. Das wiederum lässt sich auf ein einfaches statistisches Verhalten zurückführen: Für den Zustand einer Ordnung gibt es im Gegensatz zur Unordnung nur wenige Möglichkeiten.

Für ein sortiertes Kartenspiel gibt es nur eine Möglichkeit und damit die kleinstmöglichste Entropie. Durch Mischen wird die Entropie bis zu einem Maximum vergrößert. Aber niemals lässt sich durch Mischen die ursprüngliche Ordnung wieder herstellen.

Dabei gibt es noch einen besondere Erscheinung: Die Entropieinseln. Man kann noch so gut mischen, aber dabei nicht verhindern, dass lokal immer wieder Karten in der ursprünglichen Reihenfolge liegen. Das erklärt z.B. die Windenergie, die letztlich von der Sonnenwärme stammt und zum Segeln taugt.

Würde man Milliarden von weißen und schwarzen Kügelchen in einem Behälter so anordnen, dass exakt die untere Hälfte weiß und die obere schwarz wäre, könnte man durch Mischen zwar nie den ursprünglichen Zustand wieder herstellen, aber in der Menge würden sich kleine Gruppen befinden, wo ein paar weiße Kügelchen wieder unten und ein paar darüber oben wären, eine Miniaturausgabe der ursprünglichen Ordnung sozusagen, also kleine Inseln mit der gleichen geringen Entropie wie die große ursprüngliche Anordnung. Dieses Beispiel veranschaulicht das auf einen statistischen Hintergrund hinweisende Verhalten der Entropie.

1
Hamburger02  17.06.2018, 19:33
@wotan38

Wärme ist bekanntlich Bewegungsenergie der Moleküle.

Das stimmt leider nicht ganz. "bekanntlich" beziehe ich darauf, dass dies zwar immer wieder, auch von Physiklehrern im Unterricht behaupter wird, dass es aber dennoch falsch ist.

Wärme ist definiert als die Energie, die alleine aufgrund eines Temperaturunterschiedes die Systemgrenze überschreitet. Damit ist Wärme eine Prozessgröße und keine Zustandsgröße.

Womit Wärme häufig verwechselt wird ist die innere Energie. Die innere Energie ist die Energie, die ein Körper aufgrund seiner Temperatur hat. Innere Energie ist damit eine Zustandsgröße und keine Prozessgröße.

Die innere Energie steckt allerdings nicht nur in der kinetischen Energie der Teilchen, obwohl auch das häufig falsch gelehrt wird von Leuten, die selber große Schwierigkeiten mit der Thermodynamik haben und davon gibt es selbst unter Physikern eine ganze Menge. Die innere Energie, die ein Körper z.B. durch Zufuhr von Wärme gewinnt, steckt außer in der kinetischen Energie in der potenziellen Energie der Teilchen, die dadurch entsteht, dass die Teilchen gegenseitig Kräfte aufeinander ausüben. Bei Festkörpern ist die Zunahme der potenziellen Energie zwischen den Teilchen von außen durch die Wärmeausdehnung sichtbar. Da es aber keine Möglichkeiten gibt, den jeweiligen Anteil an potenzieller und kinetischer Energie der Teilchen zu berechnen, arbeitet man mit der Summe aus beiden Energien, der inneren Energie. Abgesehen davon hätte es auch keinen praktischen Nutzen, beide auseinander zu rechnen.

Entropie mit Ordnung und Ordnung zu assozieren klappt eigentlich nur in zwei Spezialfällen. Das ist zum einen die statistische Mechanik, solange sie die Gültigkeit des Boltzmanschen Ordnungsprinzips annimmt. Das ist aber ausschließlich bei Systemen nahe des thermodynamischen Gleichgewichts der Fall. Bei Systemen fernab des thermodynamischen Gleichgewichtes, z.B. in dissipativen Strukturen, ist das Boltzmannsche Ordnungsprinzip verletzt und dann führt auch die Vorstellung von Ordnung und Unordnung in die Irre.

Der zweite Fall, bei dem es mit der Vorstellung von der Entropie mit Ordnung und Unordnung auch noch klappt, währe ein makroskopisches geschlossenes System.

Geschlossene Systeme sind im Alltag extreme Sonderfälle und spielen eigentlich nur in der Lehre der Grundlagen der Thermodynamik eine Rolle. In der Praxis hat man es fast nur mit offenen systemen zu tun, die meistens mit der Umwelt wechselwirken.

Auch Systeme nahe des thermodynamischen Gleichgewichtes, also die, bei denen man mit der statistischen Thermodynamik weiterkommt, sind nicht die Regel im Universum sondern Grenzfälle. In der Technik, der Gleichgewichtsphysik oder Gleichgewichtschemie spielen sie allerdings eine große Rolle. Bei allen nichtlinearen Systemen, die die Regel im Universum sind, versagt allerdings die Vorstellung von Ordnung und Unordnung.

Aus obigen Gründen hat sich die akademische Thermodynamik inzwischen von der Entropie als Maß für die Unordnung verabschiedet und betrachtet sie als ein Maß für die Entwertung von Energie, denn diese Vorstellung ist allgemein anwendbar und unterliegt keinen bisher bekannten Beschränkungen.

1
wotan38  18.06.2018, 11:21
@Hamburger02

Danke für die ausführliche und differenzierte Ausführung. Ich bin kein Physiker, sehe das physikalische Verständnis als einen notwendigen Beitrag zur philosophischen Aufklärung und zum Verständnis unseres Weltbildes. Gemessen an der allgemein weit verbreiteten Unkenntnis um die Dinge um uns herum geht es meist um vermittelbare Denkmodelle, die den physikalischen Charakter von Vorgängen um uns herum verdeutlichen.

Für mich ist Dein Beitrag eine Bereicherung, für Menschen mit der Suche nach einfachen Erklärungen wohl zu kompliziert.

1
Hamburger02  18.06.2018, 11:39
@wotan38

Die Überwindung des Schismas zwischen Natur- und Geisteswissenschaften, das letztlich durch die deterministische Physik Newtons ausgelöst wurde, weil nun mal das menschliche Dasein offensichtlich indeterministisch ist, war eines der großen Anliegen eines meiner "physikalischen Helden", des gebürtigen Russen Ilya Prigogine.

Prigogine begründete mit seiner Theorie Dissipativer Strukturen, für die er 1977 den Nobelpreis erhielt, die neue nichtlineare, indeterministische und irreduzible Physik. Diese Physik kann man auch als die Physik des Lebens, der Evolution und der kulturellen Entwicklung bezeichnen. Sie hat in den letzten Jahrzehnten enorme Impulse insbesonder in den Wissenschaften des Lebens, des Menschen und den Geisteswissenschaften ausgelöst, in ganz neue Richtungen zu forschen. Diese Physik findet auch in den Gebieten der Chaostheorie und dem Paradigma der Emergenz ihren Niederschlag. Ihre Kernausage bezieht sich auf Aristoteles: "Das Ganze ist mehr als die Summe seiner Einzelteile".

Prigogine behauptet m.E. völlig zu Recht, Physik ohne Philosophie macht genausowenig Sinn wie Philosophie ohne Physik.

Dass dieser Ansatz letztlich nicht in der Lage ist, einfache Antworten auf komplexe Fragen zu liefern, ist nun mal so.

0
Lovelie3871  07.11.2022, 18:55

Vielen Dank! Niemand hätte es mir besser erklären können.

1

Hallo partizipperfekt,

ich habe mal aus Anlass einer Frage „Schneller als Licht bei hohen Temperaturen“ mal etwas zu Temperatur und Entropie geschrieben:

Die Entropie S ist ein logarithmisches Maß für die Anzahl der Möglichkeiten, einen Zustand zu realisieren, gewichtet mit den Wahrscheinlichkeiten für diese Möglichkeiten.

Als Modell dafür kannst Du Dir ein Brett mit N Felden und n Steinen vorstellen, von denen Du jeden bei jedem Spielzug nach dem Zufallsprinzip um 1 Feld verrückst (steht da schon ein Stein, werden die einfach ausgetauscht).

Je dichter die Steine in einer Region stehen, desto größer ist die Wahrscheinlichkeit, dass dort welche herauswandern. Jede Wette also, dass sie sich dabei im Laufe der Zeit ziemlich gleichmäßig verteilen, denn je dichter die Steine. Wenn das passiert, ist ein dynamisches Gleichgewicht erreicht, der Zustand maximaler Entropie. Obwohl das fröhliche Steinerücken munter weitergeht, bleibt die Konfiguration im Großen und Ganzen gleich.

Änderung äußerer Vorgaben ändern übrigens auch den Zustand, der die maximale Entropie hat. Führst Du im Modell eine „anziehende Kraft“ zwischen den Steinen oder in eine bestimmte Richtung ein, tendieren die Steine zum Klumpen oder dazu, in eine bestimmte Richtung zu wandern. Deshalb ist nicht automatisch der Zustand höchster Entropie auch der der größten Durchmischung.

Die absolute Temperatur T ist nun durch

(5) 1/T = ∂S/∂E

definiert, wobei '∂' eine kleine Änderung unter sonst unveränderten Bedingungen darstellt: ∂S eine kleine Änderung der Temperatur, ∂E eine kleine Energieänderung. Volumen und Teilchenzahl ändern sich nicht, deshalb '∂' statt 'd'.

Will heißen: Je höher die Temperatur, desto weniger verändert sich die Entropie eines Systems dadurch, dass man ihm Energie zuführt oder entzieht.

Deshalb strebt diese Größe auch nach Ausgleich: Wenn ich zwei Systeme in Kontakt bringe, und eines gibt an das andere Energie ab, dann wird die Entropie des einen Systems kleiner und die des anderen größer, aber nicht unbedingt im selben Maße. „Freiwillig“ ablaufen wird der Energieaustausch, bei dem die Gesamtenropie wächst. Das wärmere System ist das, welches bei Energieabgabe weniger Entropie verliert.

Negative absolute Temperatur

So etwas tritt auf, wenn es in einem System ein Energielevel mit maximaler Energie gibt.

Wenn wir z.B. ein System konstruieren, das nur zwei Energielevels hat, die auch im Prinzip gleich wahrscheinlich sind, können wir rein thermisch nur erreichen, dass etwa die Hälfte der vorhandenen Teilchen das höhere der beiden Niveaus besetzt. Höher kann dann auch die Entropie des Systems nicht werden. Mehr Energie lässt die Entropie wieder sinken, weil nun mehr Teilchen das höhere Level besetzen.

Das ist natürlich eigentlich ein nicht-thermischer Zustand, aber (5) liefert einen Wert, einen negativen. Diese „negative absolute Temperatur“ ist aber nicht niedriger, sondern höher als jede positive absolute Temperatur.

In diesem Fall gibt es eine „höchste Temperatur“, nämlich -0J - die einen Zustand maximaler Energie des Systems repräsentiert, da alle Teilchen im höchsten Zustand sind, soweit das überhaupt möglich ist.

Entropie ist eine Zustandsgröße.

Die Entropie jedes reinen Stoffes strebt beim absoluten Nullpunkt den Wert Null zu.

Daher kann man auch die Entropie als Maß für die Wahrscheinlichkeit des Ordnungszustandes eines System.

Boltzmann hat den Zusammenhang zwischen thermodynamischer Wahrscheinlichkeit und Entropie so formuliert.

E = k • ln W

k ist die Boltzmannkonstante k = 1,38 E-16 erg/grad

Wem das zu abstrakt ist eine kleine Hilfestellung.

Betrachtet man den Wärmeausgleich zwischen zwei Stoffen, z. Eisen und Wasser.

dQ1 = dQ2

Besteht nun eine Temperatur Differenz , dann kann Wärme von einem zum anderen übergehen. Der Vorgang ist reversibel.

dQrev / T = 0

Diesen Quotient bezeichnete R. Clausius als Entropie.

Oder ganz simpel ausgedrückt: Wärme fließt nur von der höheren zu niedrigen Temperatur.

Dies hier ist die beste (anschaulichste) Erklärung, die ich kenne:

https://www.youtube.com/watch?v=z64PJwXy--8

Da du gefragt hast, wozu man das braucht: In der Schule muss man mit Entropie- und Enthalpiewerten berechnen, ob und bei welcher Temperatur eine chemische Reaktion freiwillig ablaufen kann.

Ob man das braucht, ist natürlich eine andere Frage; aber wenn man in Chemie sein Abitur macht, steht es bei uns im Lehrplan. Du kannst natürlich dein Abitur auch in Latein und Religion machen. Dann brauchst du das nicht. :)

LG
MCX


Bevarian  29.03.2018, 17:57
Du kannst natürlich dein Abitur auch in Latein und Religion machen. Dann brauchst du das nicht.

Das hört sich ja fast so an, als ob Du Latein und Religion für wertlos hieltest... ;)))

2
TomRichter  30.03.2018, 19:22
@Bevarian

Das würde ich bei einem Lateinlehrer niemals vermuten.

Und Religion ist natürlich nicht wertlos, die hat schon so manchem den Abi-Schnitt gerettet.

2
Bevarian  02.04.2018, 18:24
@TomRichter

"Latein gleich wertlos?" gerade deshalb, weil wir doch unseren Druiden kennen...!

2

Entropie, thermodynamische Größe (Symbol S), die das Maß der Unordnung eines Systems angibt. Je zufälliger die Objekte eines Systems verteilt sind, desto größer ist seine E. Nach dem zweiten Hauptsatz der Thermodynamik ist jede Energieumwandlung mit einer Zunahme der E. des Universums verbunden.

Entropie - Kompaktlexikon der Biologie - Spektrum der Wissenschaft

www.spektrum.de/lexikon/biologie-kompakt/entropie/3705


partizipperfekt 
Beitragsersteller
 28.03.2018, 09:01

und wozu braucht man sowas?

0
vach77  28.03.2018, 10:19
@partizipperfekt

In der Sek II wirst Du in der Chemie die Gleichung von GIBBS-HELMHOLTZ kennenlernen:

ΔGR° = ΔHR° - T · ΔSR° (R als Index schreiben)

Mit dieser Gleichung kann man berechnen, ob ein chemischer Vorgang freiwillig (die Freie Enthalpie ΔGR ist dann negativ), oder unter Zwang (die Freie Enthalpie ΔGR ist dann positiv) abläuft.

Aus der Gleichung ersiehst Du, dass hier die Enthalpie HR (ob exothermer oder endothermer Verlauf der Reaktion), die Temperatur T und die Entropie SR (nimmt der Grad der Unordnung der miteinander reagierenden Teilchen zu oder ab) eine Rolle spielen.

Nur ein Beispiel zur Entropie: Wird eine kohlenstoffhaltige Verbindung (z.B. Ethanol) verbrannt, dann entsteht u.a. ein Gas. Bei einem Gas ist aber die Unordnung (Entropie) der Moleküle sehr viel größer als bei einer Flüssigkeit oder gar einem festen Körper.

3