Entropia obiektu jest miarą ilości energii, która jest niedostępna do wykonania pracy. Entropia jest również miarą liczby możliwych układów, jakie mogą mieć atomy w systemie. W tym sensie entropia jest miarą niepewności lub losowości. Im wyższa entropia obiektu, tym bardziej niepewni jesteśmy co do stanów atomów tworzących ten obiekt, ponieważ jest więcej stanów, z których możemy wybierać. Prawo fizyki mówi, że potrzeba pracy, aby zmniejszyć entropię obiektu lub systemu; bez pracy entropia nigdy nie może się zmniejszyć — można powiedzieć, że wszystko powoli zmierza do nieuporządkowania (wyższej entropii).
Słowo entropia pochodzi z badań nad ciepłem i energią w okresie od 1850 do 1900 roku. Niektóre bardzo użyteczne matematyczne idee dotyczące rachunku prawdopodobieństwa wyłoniły się z badań nad entropią. Idee te są obecnie wykorzystywane w teorii informacji, chemii i innych dziedzinach nauki.
Entropia jest po prostu ilościową miarą tego, co opisuje drugie prawo termodynamiki: rozprzestrzeniania się energii aż do jej równomiernego rozłożenia. Znaczenie entropii jest różne w różnych dziedzinach. Może oznaczać:
- termodynamiczną miarę rozkładu ciepła i niemożności wykonania pracy,
- statystyczną miarę liczby możliwych mikrostanuów układu (miarę nieuporządkowania),
- miarę informacji lub niepewności w teorii informacji (powiązaną matematycznie z entropią Boltzmanna),
- w chemii i inżynierii — czynnik wpływający na kierunek i spontaniczność reakcji oraz procesów przemysłowych.
Definicja termodynamiczna
W termodynamice entropia S zmienia się podczas procesu wymiany ciepła. Dla procesu odwracalnego (rewersyjnego) definiuje się differentialnie:
dS = δQ_rev / T
gdzie δQ_rev to ilość ciepła wymieniona odwracalnie, a T — temperatura w kelwinach. Całkowita zmiana entropii przy przejściu z stanu 1 do stanu 2:
ΔS = ∫(δQ_rev/T) od 1 do 2
Jednostką entropii w układzie SI jest J/K (dżul na kelwin).
Interpretacja statystyczna
W ujęciu statystycznym, sformułowanym przez Ludwiga Boltzmanna, entropia jest związana z liczbą mikrostanuów W odpowiadających makrostanowi systemu:
S = k ln W
gdzie k to stała Boltzmanna (k ≈ 1,380649×10^−23 J/K). Im więcej mikrostanów (większe W), tym większa entropia. Dla układów probabilistycznych użyteczna jest też postać Boltzmanna–Gibbsa:
S = −k Σ p_i ln p_i
gdzie p_i to prawdopodobieństwo wystąpienia i-tego mikrostanu — ta forma jest zbliżona do entropii Shannon w teorii informacji.
Drugie prawo termodynamiki
- Dla układu izolowanego całkowita entropia nie maleje: ΔS_total ≥ 0. Równanie to wyraża kierunek spontanicznych procesów (np. ciepło przepływa z gorącego do zimnego, nie odwrotnie bez wykonania pracy).
- Entropia może lokalnie maleć (np. porządkowanie materii), ale zawsze kosztem wzrostu entropii otoczenia — czyli wymaga to pracy dostarczonej z zewnątrz.
- Pojęcia wydajności silników cieplnych wynikają z drugiego prawa — maksymalna wydajność silnika między źródłem T_h a chłodnicą T_c dana jest przez silnik Carnota: η_max = 1 − T_c/T_h.
Obliczanie entropii w praktyce
- Dla idealnego gazu zmiana entropii przy przejściu między stanami (T1,V1) i (T2,V2):
ΔS = n C_v ln(T2/T1) + n R ln(V2/V1) (alternatywnie z C_p przy znanej zmianie ciśnienia). - Dla przemian izotermicznych idealnego gazu: ΔS = Q_rev/T, gdzie Q_rev to ciepło wymienione odwracalnie.
- W reakcjach chemicznych i procesach przemysłowych używa się standardowych entropii molowych i tabel termodynamicznych, a także potencjałów termodynamicznych (energia swobodna Helmholtza F = U − TS, energia swobodna Gibbsa G = H − TS), które łączą entropię z dostępną do wykonania pracą.
Przykłady i intuicja
- Topnienie lodu: lód (usystematyzowana struktura, niska entropia) topnieje do wody (więcej mikrostanów, wyższa entropia) — proces spontaniczny powyżej 0 °C.
- Mieszanie dwóch różnych gazów zwiększa entropię (entropia mieszania) — nawet bez wymiany ciepła, bo rośnie liczba mikrostanów.
- Przepływ ciepła z ciała gorącego do zimnego zwiększa entropię sumaryczną układu + otoczenia.
- Procesy odwracalne (idealne) nie zmieniają entropii całkowitej, procesy rzeczywiste (nieodwracalne) ją zwiększają.
Zastosowania entropii
- Fizyka i termodynamika — analiza silników, chłodnictwa, przewidywanie kierunku procesów termodynamicznych.
- Chemia — obliczanie spontaniczności reakcji (ΔG = ΔH − TΔS); entropia wpływa na równowagi chemiczne i szybkości reakcji.
- Teoria informacji — formalne powiązanie entropii Boltzmanna z entropią Shannona umożliwia kwantyfikację informacji, kompresji i niepewności źródeł danych (teoria informacji).
- Biologia — pojęcia entropii wykorzystywane w biologii molekularnej, termodynamice procesów życiowych oraz w modelowaniu struktur białek i lipidów.
- Inżynieria — optymalizacja procesów energetycznych, analiza strat (entropii produkowana w urządzeniach), projektowanie bardziej efektywnych układów.
- Kosmologia — rozważania o entropii wszechświata, entropii czarnych dziur (Bekenstein–Hawking) i kierunku strzału czasu.
Częste nieporozumienia
- „Entropia = chaos” — uproszczenie: entropia mierzy liczbę dostępnym mikrostanów, co często koreluje z intuicyjnym „nieuporządkowaniem”, ale pojęcie to ma precyzyjne znaczenie statystyczne i termodynamiczne.
- „Entropia zawsze rośnie we wszystkich układach” — to prawda dla układów izolowanych; otwarte układy mogą mieć lokalne spadki entropii kosztem zwiększenia entropii otoczenia (np. życie buduje porządek, zużywając energię i zwiększając entropię środowiska).
- Maxwell's demon — pozornie sprzeczny z drugim prawem, wyjaśniony przez uwzględnienie kosztu informacyjnego i wzrostu entropii przy pomiarze i przetwarzaniu informacji.
Podsumowanie
Entropia to fundamentalne pojęcie łączące termodynamikę, statystykę i teorię informacji. Mierzy, ile energii jest niedostępne do wykonania pracy oraz jak wiele mikrostanów odpowiada danemu makrostanowi. Drugie prawo termodynamiki — wzrost entropii w układzie izolowanym — określa kierunek spontanicznych procesów i ma liczne praktyczne zastosowania w nauce i technologii.