Movatterモバイル変換


[0]ホーム

URL:


Przejdź do zawartości
Wikipediawolna encyklopedia
Szukaj

Entropia

Z Wikipedii, wolnej encyklopedii
Entropia
Problem z odtwarzaniem tego pliku? Zobacz strony pomocy.
Ten artykuł dotyczy pojęcia fizycznego. Zobacz też:inne znaczenia tego terminu.

Entropia (s lubS[a]) –termodynamicznafunkcja stanu, określająca kierunek przebieguprocesówspontanicznych (samorzutnych) wodosobnionymukładzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu[2][3] i rozproszeniaenergii[4]. Jestwielkością ekstensywną[b]. Zgodnie zdrugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanurównowagi do innego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczonyRudolf Clausius.

W termodynamice klasycznej

[edytuj |edytuj kod]

W ramach II zasady termodynamiki zmiana entropii (w procesachkwazistatycznych) jest zdefiniowana przez swojąróżniczkę zupełną jako:

dS=1TδQ,{\displaystyle dS={\frac {1}{T}}\delta Q,}

gdzie:

T{\displaystyle T}temperatura bezwzględna,
δQ{\displaystyle \delta Q}ciepło elementarne, czyli niewielka ilość ciepła dostarczona do układu (wyrażenie Pfaffa).

Entropię pewnego stanu termodynamicznegoP{\displaystyle P} można wyznaczyć ze wzoru:

S(P)=0TPC(T)dTT,{\displaystyle S(P)=\int \limits _{0}^{T_{P}}{\frac {C(T)dT}{T}},}

gdzie:

C{\displaystyle C}pojemność cieplna,
TP{\displaystyle T_{P}} – temperatura w stanieP.{\displaystyle P.}

Podstawowe równanie termodynamiki fenomenologicznej, w którym występuje entropia, ma postać

dU=TdSpdV+i=1kμidNi{\displaystyle dU=TdS-pdV+\sum _{i=1}^{k}\mu _{i}dN_{i}}

gdzie:

U{\displaystyle U}energia wewnętrzna,
k{\displaystyle k} – liczba różnych składników,
T{\displaystyle T}temperatura1T=(SU)V,N1,,Nn,{\displaystyle {\frac {1}{T}}=\left({\frac {\partial S}{\partial U}}\right)_{V,N_{1},\dots ,N_{n}},}
p{\displaystyle p}ciśnieniepT=(SV)U,N1,,Nn,{\displaystyle {\frac {p}{T}}=\left({\frac {\partial S}{\partial V}}\right)_{U,N_{1},\dots ,N_{n}},}
μi{\displaystyle \mu _{i}}potencjał chemicznyi-tego składnikaμiT=(SNi)p,V,Nji.{\displaystyle {\frac {\mu _{i}}{T}}=-\left({\frac {\partial S}{\partial N_{i}}}\right)_{p,V,N_{j\neq i}}.}

W termodynamice statystycznej

[edytuj |edytuj kod]

Całkowita entropia układu makroskopowego jest równa[5]:

  • entropii Boltzmanna–Plancka[6]:
S=kln(W){\displaystyle S=k\ln(W)}

równoważnie:

  • entropii Gibbsa[7]:
S=kipiln(pi),{\displaystyle S=-k\sum _{i}p_{i}\ln(p_{i}),}

gdzie:

k{\displaystyle k}stała Boltzmanna,
W{\displaystyle W} – liczba sposobów, na jakiemakroskopowy stan termodynamiczny układu (makrostan) może być zrealizowany poprzezstany mikroskopowe (mikrostany),
pi{\displaystyle p_{i}} – prawdopodobieństwoi-tego mikrostanu.

Zatem

log2(W)=ln(W)ln(2){\displaystyle \log _{2}(W)={\frac {\ln(W)}{\ln(2)}}}

jest liczbąbitów potrzebnych do pełnego określenia, którą realizację przyjął dany układ.

Praktyczne obliczenieW jest w większości przypadków technicznie niemożliwe, można jednak oszacowywać całkowitą entropię układów poprzez wyznaczenie ich całkowitej pojemności cieplnej poczynając od temperatury 0 K do aktualnej temperatury układu i podzielenie jej przez temperaturę układu.

Ciało pozbawione niedoskonałości, zwanekryształem doskonałym, ma w temperaturze 0 bezwzględnego (0 K) entropię równą 0, gdyż jego stan może być zrealizowany tylko na jeden sposób (każdacząsteczka wykonuje drgania zerowe i zajmuje miejsce o najmniejszej energii). Jest to jedno ze sformułowańtrzeciej zasady termodynamiki. Oznacza to, że każde rzeczywiste ciało ma w temperaturze większej odzera bezwzględnego entropię większą od zera.

Aspekt fizyczny

[edytuj |edytuj kod]

Carnot zaproponował, żeciepło musi być zawsze tracone, aby silnik cieplny mógł wykonywać swoją pracę, ale nie okreśił ilościowo straty ciepła.Rudolf Clausius w swoim artykule„On the Moving Force of Heat, and the Laws regarding the Nature of Heat itself which are deducible therefrom” z1851 roku potwierdził dwie teorie:[8]

Po przedstawieniucyklu Carnota rozszerzonego o trzecie ciało (gaz doskonały), które odpowiada za transport ciepła pomiędzy dwoma zbiornikami,Clausius zauważył, że w przypadku silników odwracalnych iloraz ciepła dostarczonego do odprowadzonego był stale równe ilorazowi temperatur bezwzględnych cieplejszego i chłodniejszego zbiornika:

co po przekształceniu dało:

Clausius następnie zbadał silniki nieodwracalne i stwierdził, że powyższa relacja nie zachodzi, np. gdy następuje przepływ10J{\displaystyle 10J} ciepła z ciała o temperaturze350K{\displaystyle 350K} do ciała o temperaturze300K{\displaystyle 300K}, to:[8]

To oznacza, że dla procesu nieodwracalnego, iloraz ciepła do temperatury bezwzględnej wzrasta w kierunku naturalnego przepływu ciepła. W sumie, dla silnika cieplnego:

natomiast dla sekwencji procesów:

gdziek(QT)k{\displaystyle \sum _{k}\left({\frac {Q}{T}}\right)_{k}} jest ilorazem ilości przesłanego ciepła w procesie do temperatury otoczenia, gdzie ciepło jest przesyłane.

Podsumowując, iloraz ilości ciepła do temperatury ma cechy właściwości, ponieważ nie zmienia się w cyklu, ale jest również związany z przekazywaniem ciepła.[8]

Clausius, nazwał ten iloraz„wartością równoważną”, zdefiniował także„przemianę równoważną” (taką, która może być zastąpiona przez inną bez żadnej innej trwałej zmiany).

IlorazQT{\displaystyle {\frac {Q}{T}}} jest funkcją, która:

Po serii obliczeń i przekształceń,Clausius otrzymał równośćF(T1,T2)=f(T2)f(T1){\displaystyle F(T_{1},T_{2})=f(T_{2})-f(T_{1})} i na podstawie równościQHTH=QLTL{\displaystyle {\frac {Q_{H}}{T_{H}}}={\frac {Q_{L}}{T_{L}}}} postanowił wprowadzić zaF(T){\displaystyle F(T)} funkcję1T.{\displaystyle {\frac {1}{T}}.}

Wtedy zamiana ciepłaQ{\displaystyle Q} o temperaturze T na pracę ma wartość równoważnąQT,{\displaystyle {\frac {Q}{T}},} a przepływ ciepłaQ{\displaystyle Q} między ciałami o temperaturachT1{\displaystyle T_{1}} iT2{\displaystyle T_{2}} ma wartość równoważnąQ(1T21T1).{\displaystyle Q\left({\frac {1}{T_{2}}}-{\frac {1}{T_{1}}}\right).}

W1865 Clausius nazwał„wartość równoważną” entropią i wybrał dla niej symbolS.{\displaystyle S.}

Istnienie oraz postać funkcji stanu zwanej entropią wynika właśnie wprost z równania opisującegocykl Carnota:

Fakt ten wyróżnia w jakiś sposób wielkośćQT.{\displaystyle {\frac {Q}{T}}.} W cyklu pracy silników odwracalnych ciepłoQ1{\displaystyle Q_{1}} w temperaturzeT1{\displaystyle T_{1}} jest równoważne ciepłuQ2{\displaystyle Q_{2}} w temperaturzeT2.{\displaystyle T_{2}.}Q1{\displaystyle Q_{1}} jest pochłaniane, aQ2{\displaystyle Q_{2}} wydzielane. Ta sama ilość wielkościQT{\displaystyle {\frac {Q}{T}}} zostaje pochłonięta, co wydzielona (nie ma ani straty, ani zysku).

Suma algebraiczna wartościQT{\displaystyle {\frac {Q}{T}}} przy przemianie odwracalnej jest równa zero.Gdy mamy do czynienia z procesem cyklicznym, to:

W przypadku procesu nieodwracalnego, wystąpi przepływ ciepłaQ{\displaystyle Q} z ciała o temperaturzeT1{\displaystyle T_{1}} do ciała o temperaturzeT2.{\displaystyle T_{2}.} Wtedy entropia układu zmieni się o:

Z faktu, żeT1>T2,{\displaystyle T_{1}>T_{2},} wynikaΔS>0.{\displaystyle \Delta S>0.}Gdyproces nieodwracalny jest cykliczny, toidQiT=dQT>0{\displaystyle \sum _{i}{\frac {dQ_{i}}{T}}=\oint {\frac {dQ}{T}}>0}

Aspekt matematyczny

[edytuj |edytuj kod]

Entropia jestfunkcją stanu, to znaczy, że jej wartość zależy wyłącznie odstanu układu (od aktualnych wartości jego parametrów). Zmiana funkcji stanu nie zależy od drogi, lecz jedynie od stanu początkowego i końcowego układu. Z punktu widzenia matematycznego różniczka entropiidS{\displaystyle dS} jest różniczką zupełną i wynik jej całkowania nie zależy od drogi całkowania.Z pierwszej zasady termodynamiki:

podstawiającU=32nRT,{\displaystyle U={\frac {3}{2}}nRT,}W=pdV{\displaystyle W=pdV} orazp=nRTV,{\displaystyle p={\frac {nRT}{V}},} otrzymujemy różniczkę ciepła:

Możemy stwierdzić, że różniczka ciepłaQ{\displaystyle \partial Q} nie jestróżniczką zupełną, gdyż:

Poszukujemy zatem czynnika całkującego, aby:

co po uproszczeniach daje:

Rozwiązując torównanie różniczkowe zwyczajne, otrzymujemy:f=1T{\displaystyle f={\frac {1}{T}}}

WtedydQT{\displaystyle {\frac {dQ}{T}}} jestróżniczką zupełną, a zatemS=QT{\displaystyle S={\frac {Q}{T}}} jestfunkcją stanu.

Ponadto, z równania opisującego cykl CarnotaQ1Q2=T1T2{\displaystyle {\frac {Q_{1}}{Q_{2}}}={\frac {T_{1}}{T_{2}}}} stosującdrugą zasadę termodynamiki w formie Kelvina-Plancka:U2U1=QW,{\displaystyle U_{2}-U_{1}=Q-W,}Q=W,{\displaystyle Q=W,}Q0,{\displaystyle Q\leqslant 0,}W0{\displaystyle W\leqslant 0} wynika, że:

W przypadku, gdy wszystkie przemiany są odwracalne, to:

Na tej podstawie można wykazać, że entropia w procesie przeprowadzającym układ od stanu 1 do stanu 2 wynosi:

Natomiast w przypadku procesu odwracalnego zachodzi równość.

Jeśli układ jest izolowany, toQ=0{\displaystyle \partial Q=0} (entropia wtedy nie maleje). Oznacz to, że układ jest w stanie 2 później niż w stanie 1 (entropia rośnie, ponieważ czas płynie naprzód)[9].

Entropia czarnej dziury

[edytuj |edytuj kod]

Wogólnej teorii względności, aby opisaćczarną dziurę, wystarczy podać jej masę,moment pędu iładunek elektryczny. Zgodnie z tą teorią czarna dziura nie zawiera żadnej informacji ponad te parametry. Do czarnej dziury wpada materia o niezerowej entropii, zatem przy wpadaniu entropia całego układu się zmniejsza. Wynika z tego, że ogólna teoria względności łamie drugą zasadę termodynamiki. Fizycy zaczęli więc poszukiwać uogólnienia teorii czarnych dziur, tak żeby pozostawała w zgodzie z termodynamiką. Owocne okazało się rozważenie efektów kwantowych.

Wzór na entropię czarnej dziury powstał przy założeniu, że podczas spadania ciała do czarnej dziury jej masa rośnie wraz z jej entropią; proporcjonalny do masy jesthoryzont zdarzeń, czylipromień Schwarzschilda. Ścisły wzór wgStephena Hawkinga ma postać:

S=kc3A4G,{\displaystyle S={\frac {kc^{3}A}{4\hbar \,G}},}

gdzie:

k{\displaystyle k}stała Boltzmanna,
A{\displaystyle A} – powierzchnia horyzontu zdarzeń czarnej dziury,
c{\displaystyle c}prędkość światła w próżni,
{\displaystyle \hbar } – zredukowanastała Plancka,
G{\displaystyle G}stała grawitacyjna.

Stephen Hawking zaproponował również wzór na temperaturę czarnej dziury:

T=c38πGkM=TP2πd,{\displaystyle T={\frac {\hbar \,c^{3}}{8\pi GkM}}={\frac {T_{\text{P}}}{2{\pi }d}},}

gdzie:

k{\displaystyle k} – stała Boltzmanna,
M{\displaystyle M} – masa czarnej dziury o średnicyD=dlP{\displaystyle D=d\cdot l_{\text{P}}}
c{\displaystyle c}prędkość światła w próżni,
{\displaystyle \hbar } – zredukowanastała Plancka,
G{\displaystyle G} – stała grawitacyjna.
lP{\displaystyle l_{\text{P}}} - długość Plancka
TP{\displaystyle T_{\text{P}}} - temperatura Plancka

Z faktu, że czarne dziury posiadają temperaturę wynikałoby, że mogą one emitować promieniowanie i w ten sposób zmniejszać swoją entropię, zwiększając entropię wszechświata. Efekt ten został nazwanypromieniowaniem Hawkinga.Ze względu na to, że temperatura czarnej dziury jest odwrotnie proporcjonalna do jej masy, promieniowanie to może być silne jedynie dla bardzo małych czarnych dziur-znacznie mniejszych niż takie, które powstają przez kolaps gwiazd i nie został on potwierdzony obserwacyjnie.

Kosmologia

[edytuj |edytuj kod]

Według II zasady termodynamiki każdyukład izolowany dąży do stanu równowagi, w którym entropia osiąga maksimum. Zakładając, że Wszechświat jako całość jest układem izolowanym, powinien on również dążyć do równowagi. Wychodząc z tych założeń,Hermann von Helmholtz wysunął hipotezęśmierci cieplnej Wszechświata, według której Wszechświat w końcu dojdzie do równowagi termodynamicznej, w której niemożliwa będzie zamiana energii cieplnej na pracę, przez co niemożliwy będzie rozwój Wszechświata. Stwierdzenie tego faktu jest jednak stosunkowo trudne do zaobserwowania i dlatego prowadzi się liczne dyskusje, czy Wszechświat jest, czy nie jest układem izolowanym, czy też tylko zamkniętym, oraz czy rzeczywiście dąży jako całość do równowagi. Przeciwnicy tej koncepcji są zdania, że rozszerzającego się Wszechświata nie można traktować jako układu izolowanego, gdyż nie można wyznaczyć obszaru, z którego nie wychodziłoby promieniowanie. Wiadomo jedynie, że entropia olbrzymiej większości znanych układów izolowanych rośnie w kierunku, który nazywamy przyszłością. Tak więc, z tego punktu widzenia, termodynamika określa kierunek upływu czasu (tzw.termodynamiczna strzałka czasu).

WedługBoltzmanna aktualna entropia Wszechświata jest jeszcze bardzo niska, w porównaniu z wartością „docelową”, na co dowodem miały być wysokie wartościfluktuacji statystycznych zjawisk obserwowanych w skali kosmosu – np. bardzo nierównomierne rozmieszczenie gwiazd w przestrzeni. Współcześnie taka interpretacja entropii jest jednak uważana za całkowicie nieuprawnioną zkosmologicznego punktu widzenia.

Powiązania z innymi naukami

[edytuj |edytuj kod]

Z punktu widzenia fizycznego każdy procesekonomiczny również ma charakter jednokierunkowego wzrostu entropii, sporadycznie formułowano teorie o ekwiwalentnościpieniądza i niskiej entropii (G. Helm, J. Lotka[10]).

Zobacz też

[edytuj |edytuj kod]
Zobacz hasłoentropia w Wikisłowniku

Uwagi

[edytuj |edytuj kod]
  1. Małą literę stosuje się w ujęciu ogólnym, dużą dla wielkości molowej[1].
  2. W opisie układów dalekich od stanu równowagi, klasyczna (ekstensywna) termodynamika zawodzi. Próby jej rozszerzenia, w oparciu o teorieRényi’ego iTsallisa wymagają bardziej ogólnej definicji entropii. EntropieRényi’ego iTsallisa są w ogólności nieekstensywne; obejmująca je dziedzina badań nosi nazwętermodynamiki nieekstensywnej.

Przypisy

[edytuj |edytuj kod]
  1. Witold Tomassi, Helena Jankowska: Chemia fizyczna. Warszawa: Wydawnictwa Naukowo-Techniczne, 1980, s. 29.ISBN 83-204-0179-8.
  2. F. Reif,Fizyka statystyczna, PWN, Warszawa 1973, s. 171.
  3. Entropia, [w:]Encyklopedia PWN [online],Wydawnictwo Naukowe PWN [dostęp 2021-07-30] .
  4. Heller i Pabjan 2014 ↓, s. 68–70.
  5. Heller i Pabjan 2014 ↓, s. 70.
  6. Boltzmanna–Plancka entropia, [w:]Encyklopedia PWN [online],Wydawnictwo Naukowe PWN [dostęp 2020-02-27] .
  7. Gibbsa entropia, [w:]Encyklopedia PWN [online],Wydawnictwo Naukowe PWN [dostęp 2020-02-27] .
  8. abcCLAUSIUS INEQUALITY AND ENTROPY. [dostęp 2024-03-08].
  9. Joseph M. Powers: Lecture Notes on Thermodynamics. Indiana: Department of Aerospace and Mechanical Engineering. University of Notre Dame., 2023, s. 213–245.
  10. Nicholas Georgescu-Roegen: Entropia, wartość i rozwój. W: Ponad ekonomią. Warszawa: PIW, 1985, s. 363.ISBN 83-06-01042-6.

Bibliografia

[edytuj |edytuj kod]

Linki zewnętrzne

[edytuj |edytuj kod]
Polskojęzyczne
Anglojęzyczne
Źródło: „https://pl.wikipedia.org/w/index.php?title=Entropia&oldid=76098240
Kategoria:

[8]ページ先頭

©2009-2025 Movatter.jp