Entropie und 2. Hauptsatz der Thermodynamik

Guten Tag,

Ich muss morgen eine Referat über Entropie und den 2.Hauptsatz der Thermodynamik halten (11.Klasse Gymnasium also nicht zu abstrakt). Leider hab ich noch schwierigkeiten, wie ich die Angelegenheit verständlich erklähren kann und wie ich überhaupt anfangen soll. Dementsprechend hab ich viele Fragen:

Ist die Entropie so definiert, dass sie nicht kleiner werden kann?

Kann man sagen, dass die Entropie und der 2. Haupsatz besagen, dass nur warscheinliche Ereignisse eintreten (Das etwas kaltes nicht von alleine kälter wird / das sich spontan kein Vakuum bildet)?

Und als Entropie wird ja oft auch die Unordnung bezeichnet. Ist die Entropie warscheinlichkeit, Unordnung oder beides?

Kann ich sagen, dass der Carnot-Wirkungsgrad besagt, das bei einer Wärmekraftmaschine die Entropie gerade noch erhalten bleibt.

Und als letzte frage: Ist adiabatisch das Gegenteil von isotherm?

Ich weiß, dass es sehr viele Fragen sind aber sie hängen alle zusammen… Ich hoffe auf schnelle Hilfe. Vielen dank schoneinmal!

Hallo!

Hast du das hier schon gelesen?

http://de.wikipedia.org/wiki/Entropie_(Thermodynamik)

Grüße

Andreas

Hallo,

Ist die Entropie so definiert, dass sie nicht kleiner werden
kann?

Jein. Man definiert physikalische Groessen meistens so, dass man interessante Aussagen treffen kann, was bei der Entropie sicher der Fall ist.
Die Eigenschaft, dass die Entropie nicht abnimmt, ist aber nicht direkt aus der Defintion ablesbar.

Kann man sagen, dass die Entropie und der 2. Haupsatz besagen,
dass nur warscheinliche Ereignisse eintreten (Das etwas kaltes
nicht von alleine kälter wird / das sich spontan kein Vakuum
bildet)?

Da musst du Vorsichtig sein:

  1. mikroskopisch (d.h. wenn du dir die Lage aller einzelnen Atome anschaust) sind alle Ereignisse, die nicht gegen Energie- Impuls- und Drehimpulserhaltung verletzen gleichwahrscheinlich.
  2. Die Entropie nimmt nicht ab, weil in der Thermodynamik die „unwahrscheinlichen“ makroskopischen Ereignisse eine so niedrige Wahrscheinlichkeit haben, dass man sie vernachlaessigen kann. (Bei dir hoerte sich das eher anders herum an).

Uebrigens kann der 2. Hauptsatz in winzigen System (auf der Nanometer-Ebene) durchaus verletzt werden, was man auch schon experimentell nachgewiesen hat.

Und als Entropie wird ja oft auch die Unordnung bezeichnet.

Sie ist ein Mass fuer die Unordnung, ja.

Ist die Entropie warscheinlichkeit, Unordnung oder beides?

Sie ist keine Wahrscheinlichkeit.

Und als letzte frage: Ist adiabatisch das Gegenteil von
isotherm?

Ein Prozess kann mehrere Charateristiken haben: isotherm, isobar, adiabatisch usw.
Es ist also nur ein moegliches Gegenstueck.

Gruesse,
Moritz

Hallo!

Ich muss morgen eine Referat über Entropie und den 2.Hauptsatz
der Thermodynamik halten (11.Klasse Gymnasium also nicht zu
abstrakt). Leider hab ich noch schwierigkeiten, wie ich die
Angelegenheit verständlich erklähren kann und wie ich
überhaupt anfangen soll.

Ich auch! Und ich bin Physik-Lehrer …

(Mit Verlaub, aber Dein Physik-Lehrer hat einen gewissen Hang zum Sadismus, wenn er Dir dieses Thema für ein Referat überlässt. Kann das sein?)

Ist die Entropie so definiert, dass sie nicht kleiner werden
kann?

Nein, das ist nicht die Definition der Entropie. Diese lautet:

dS = dQ(rev)/T

Dein Satz:

ΔS ≥ 0

ist der 2. Hauptsatz.

Kann man sagen, dass die Entropie und der 2. Haupsatz besagen,
dass nur warscheinliche Ereignisse eintreten (Das etwas kaltes
nicht von alleine kälter wird / das sich spontan kein Vakuum
bildet)?

Nein, denn auch für etwas Unwahrscheinliches ist die Wahrscheinlichkeit immer noch vorhanden. Sie ist nur sehr, sehr klein. Allerdings ist es so, dass bei thermodynamischen System die Teilchenzahl so groß ist, dass die deutliche Abweichung vom erwarteten Ereignis extrem unwahrscheinlich ist.

Und als Entropie wird ja oft auch die Unordnung bezeichnet.
Ist die Entropie warscheinlichkeit, Unordnung oder beides?

Die Entropie ist nicht direkt Wahrscheinlichkeit, aber sie ist mit ihr verwandt. Ungeordnete Zustände sind wahrscheinlicher als geordnete Zustände. Das liegt daran, dass es viel mehr ungeordnete Zustände gibt als ungeordnete. (Deswegen wird Entropie auch oft als ein Maß für Unordnung angesehen.) Stell Dir 10 Kugeln vor, die völlig wahllos auf zwei Kisten verteilt werden. Es gibt genau 2^10 Möglichkeiten der Verteilung, aber bei nur 2 Varianten sind alle Kugeln in einer Kiste. Die Gleichverteilung (5 links, 5 rechts) kann auf 252 verschiedenen Kombinationen erreicht werden, wenn ich mich gerade nicht verrechnet habe.

Kann ich sagen, dass der Carnot-Wirkungsgrad besagt, dass bei
einer Wärmekraftmaschine die Entropie gerade noch erhalten
bleibt.

Ja.

Und als letzte frage: Ist adiabatisch das Gegenteil von
isotherm?

Das kann man so sehen.

adiabatisch: Kein Wärmeaustausch.
isotherm: Maximaler Wärmeaustausch.

Ich weiß, dass es sehr viele Fragen sind aber sie hängen alle
zusammen… Ich hoffe auf schnelle Hilfe. Vielen dank
schoneinmal!

Bitte, bitte! Deine Fragen zeigen, dass Du Dich selbst schon mit dem Thema auseinandergesetzt hast, und in solchen Fällen wird hier immer gern geholfen.

Michael

Hallo!

Zur Klarstellung, weil wir uns in diesem Punkt zu widersprechen scheinen:

Und als Entropie wird ja oft auch die Unordnung bezeichnet.

Sie ist ein Mass fuer die Unordnung, ja.

Ist die Entropie warscheinlichkeit, Unordnung oder beides?

Sie ist keine Wahrscheinlichkeit.

In der statistischen Physik ist die Entropie

S = k ln Ω

k: Boltzmann-Konstante
Ω: „Phasenraum-Volumen“, anschaulich: Anzahl der gleichwertigen Mikrozustände.

Damit ist S ein Maß für die Wahrscheinlichkeit eines Makrozustands, weil S sozusagen die Mikrozustände zählt, die alle zu diesem Makrozustand gehören.

Ungeordnete (Makro-)Zustände haben aus Gründen der Kombinatorik immer viel, viel mehr Mikrozustände und damit auch eine höhere Entropie. Sie sind deswegen auch viel wahrscheinlicher als geordnete Zustände mit nur wenigen gleichwertigen Mikrozuständen (ergo: geringe Entropie).

Michael

Danke erst einmal für alle Antworten. Aber eine Frage bleibt mir noch: Ist ΔS ≥ 0 ein Axiom oder wie kommt man darauf?

Hallo

Danke erst einmal für alle Antworten. Aber eine Frage bleibt
mir noch: Ist ΔS ≥ 0 ein Axiom oder wie kommt man darauf?

Nein, das kann man herleiten.

Gruesse,
Moritz

Hallo

Danke erst einmal für alle Antworten. Aber eine Frage bleibt
mir noch: Ist ΔS ≥ 0 ein Axiom oder wie kommt man darauf?

Nein, das kann man herleiten.

Aber wie :smiley:

Hallo,

Danke erst einmal für alle Antworten. Aber eine Frage bleibt
mir noch: Ist ΔS ≥ 0 ein Axiom oder wie kommt man darauf?

Nein, das kann man herleiten.

Aber wie :smiley:

mit scary Methoden der statistischen Physik.

Ich probier mal eine einfache, nicht besonders rigorose Herleitung, oder besser Veranschaulichung.

Du hast zwei System, a und b, die jeweils die Anzahl der moeglichen Mikrozustaende Na und Nb haben, und damit die Entropien

Sa = ln Na
Sb = ln Nb

(*)

Wenn die beiden Systeme getrennt sind, ist die Anzahl der moeglichen Gesamtzustaende das Produkt der Anzahlen der Einzelzustaende (Index g fuer „gesamt“):

Ng = Na * Nb
Sg = ln(Na * Nb) = ln(Na) + ln(Nb) = Sa + Sb

D.h. die Gesamtentropie ist die Summe der Einzelentropien.

Wenn man beide Systeme in Kontakt bringt und z.B. Energieaustausch zwischen den beiden zulaesst, dann ist die Anzahl der moeglichen Mikrozustaende auf jeden Fall hoeher, weil alle vorher erlaubten Zustaende erlaubt sind, aber meistens auch solche, bei denen System a Energie an System b abgegeben hat, um umgekehrt.

D.h. im Kontakt gilt

Ng’ >= Ng
und damit

Sg’ >= Sg
und damit

Delta Sg >= 0 Q.E.D

(*) damit diese Defintion sinnvoll ist, braucht man die Ergodenhypthese oder zumindest die Quasi-Ergodenhypthese:

Die ist, soweit ich weiss, nicht strikt beweisbar, aber intuitiv recht einleuchtend.

Gruesse,
Moritz

Vielen Dank!