Entropija
Ovo je glavno značenje pojma Entropija. Za druga značenja pogledajte Entropija (razdvojba).



Entropija (oznaka S) je fizikalna veličina koju je prvi put 1865. godine uveo njemački fizičar i matematičar Rudolf Clausius.[1] Najčešće se koristi prilikom opisivanja nasumičnosti ili neizvjesnosti sustava. Koncept entropije koristi se u različitim poljima, od klasične termodinamike, gdje je prvi put prepoznat, do mikroskopskog opisa prirode u statističkoj fizici te do načela teorije informacija.[2]
Entropijom i drugim zakonom termodinamike bavili su se i hrvatski znanstvenici: Josip Lončar, Fran Bošnjaković, Vladimir Matković koji je istraživao entropiju hrvatskoga jezika.[3]
Entropija u klasičnoj termodinamici
[uredi | uredi kôd]Entropija je središnji pojam pri iskazivanju drugog zakona termodinamike. Tako se jedan od najpoznatijih iskaza drugog zakona:
"Promjena entropije izoliranog[1] sustava uvijek je veća od nule.".
Povijesno podrijetlo[4] drugog zakona termodinamike bilo je u teoretskoj analizi učinkovitosti parnih strojeva francuskog inženjera i fizičara Sadija Carnota 1824. godine.
Temelje matematičkog aparata za opisivanje drugog zakona termodinamike zapisao je Rudolf Clausius te se po njemu matematički iskaz Drugog zakona naziva Clausiusova nejednakost. Matematički, entropija se definira kao termodinamička funkcija stanja[2].
Entropija je funkcija stanja sustava kojoj beskonačno mala (infinitezimalna) promjena između dva beskonačno bliska ravnotežna stanja termodinamičkog sustava iznosi:
gdje je: - toplina[3] razmijenjena u povratnom (reverzibilnom) procesu kojim sustav prelazi iz jednog stanja u drugo, a - apsolutna temperatura.[5] Ovako definiran izraz za definiciju entropije u literaturi je poznat kao Clausiusova jednakost.[6] Entropija ima mjernu jedinicu J/K.
U klasičnoj termodinamici, apsolutnu vrijednost entropije nekoga sustava nije moguće odrediti (zbog proizvoljne integracijske konstante) pa se određuje samo njezina promjena.
Na zatvorenom povratnom (reverzibilnom) putu (Carnotov kružni proces), kada se konačno i početno stanje poklope, promjena entropije iščezava, ΔS = 0. Prema drugom zakonu termodinamike, entropija izoliranog sustava (sustava koji nije u interakciji s okolinom) veća je ili jednaka nuli: ΔS ≥ 0, pri čemu se znak jednakosti veže za povratne (reverzibilne) procese, a znak nejednakosti za nepovratne (ireverzibilne) procese u sustavu. Entropija izoliranih sustava povećava se, jer takvi sustavi teže stanju najveće neuređenosti. Statistička mehanika nam kaže kako ima više mogućnosti da sustav bude u neuređenom stanju, nego u uređenom (sustav može biti u puno raziličitih neuređenih konfiguracija, ali u samo jednoj je uređen) te je vjerojatnije da se sustav nakon nekog spontanog procesa nađe u stanju veće entropije, nego prije početka procesa. Naravno, kod otvorenih i zatvorenih sustava moguće je ulagati rad (ili izmjenjivati toplinu s okolinom) kako bi se smanjila entropija sustava. Iz drugog zakona termodinamike proizlazi da se neki makroskopski procesi odvijaju samo u smjeru porasta entropije, da imaju strijelu vremena i da im se nered i besciljnost povećavaju (disipativni sustavi). Budući da u stvarnosti ne pokazuju smanjenje entropije, u makroskopskim procesima nije moguć obrat vremena. Zbog toga je, kao filozofsku implikaciju entropije, Arthur Stanley Eddington uveo pojam strijele vremena, koji ima veliku ulogu u modernoj kozmologiji, fizici elementarnih čestica i biologiji.
Stvarni procesi u prirodi su uvijek nepovratni (ireverzibilni), to jest kod njih entropija uvijek raste. Entropija je specifična u odnosu na ostale fizikalne veličine po tome što možemo reći da entropija određuje smjer (ili strijelu) vremena u makroskopskom svijetu. Stvarni smjer vremena (uobičajeni smjer, vrijeme ide prema "naprijed") je onaj u kojem se entropija makroskopskih sistema povećava ili ostaje ista.
Početke povezivanja entropije s teorijom vjerojatnosti započeo je Ludwig Boltzmann između 1872 i 1875. Konačnu formulu utvrdio je Max Planck 1900. godine. Boltzmannova entropija definira se pomoću broja mikrostanja koji odgovaraju nekom makrostanju kao:
ovdje je - Boltzmannova konstanta, a broj mikrostanja.
Sljedeći korak bio je povezivanje entropije s pojmom vjerojatnosti. To je ostvario američki fizičar Josiah Willard Gibbs. Entropija se prema njemu definira kao:
ovdje je vjerojatnost da će se određeno mikrostanje pojaviti uslijed fluktuacije sustava.
Boltzmannova entropija se dobije iz Gibbsove pomoću sljedeće relacije .[7]
Ta relacija nam kaže kako je svako mikrostanje jednako vjerojatno (jedan od temeljnih postulata statističke termodinamike).
Pokazano je kako su i ova i prethodna definicija entropije jednake klasičnoj Clausiusovoj definiciji entropije s početka članka.[8] Kasnije von Neumann i Shannon proširili su pojam entropije na kvantnu mehaniku i teoriju informacija.
Za određivanje apsolutnog iznosa[4] entropije, može se koristiti treći zakon termodinamike, također poznat i kao Nerstov stavak.[9]
Taj stavak navodi da se entropija zatvorenog sustava u termodinamičkoj ravnoteži približava konstantnoj vrijednosti kada se njegova temperatura približava apsolutnoj nuli odnosno:
Nerstov stavak također navodi kako je i nemoguće postići apsolutnu nulu.
Nernstovo načelo nedostižnosti:[10]
"Nemoguće je za bilo koji proces, bez obzira koliko on bio idealiziran, smanjiti entropiju sustava na vrijednost koju bi imao prilikom apsolutne nule u konačnom broju operacija."
Entropija je Boltzmannovom jednadžbom povezana s brojem dostupnih mikrostanja, ukoliko za sustav postoji jedno jedinstveno stanje s minimalnom energijom, tada će u tom slučaju entropija pri apsolutnoj nuli biti točno jednaka nuli.[11]
To je tako jer ukoliko je , tada je .
To je slučaj samo za čiste kristalne substance, za neke druge tvari, moguće je postojanje više različitih mikrostanja za isto stanje s najnižom energijom te tada entropija sustava nije jednaka nuli. Ta preostala entropija naziva se rezidualna entropija.[12]
Prije nego što je moguće odrediti apsolutni iznos entropije nekog sustava pomoću Nernstovog teorema (trećeg zakona termodinamike), potrebno je razmotriti koncept mikrostanja.
Mikrostanje predstavlja broj dinamičkih stanja koji pripadaju određenom termodinamičkom stanju.[13] Svako dinamičko stanje odgovara jednoj točki u faznom prostoru, koji je -dimenzionalan za sustav od čestica.
Dimenzionalnost proizlazi iz činjenice da su za potpuno opisivanje gibanja svake čestice potrebne:
- prostorne koordinate ,
- komponente količine gibanja .
Ukupni volumen dostupnog faznog prostora definiran je integralom:
Budući da je fazni prostor kontinuiran, unutar konačnog volumena postoji beskonačno mnogo mikrostanja. To predstavlja problem jer bi Boltzmannova jednadžba za entropiju dovela do beskonačne entropije, što je fizički besmisleno.
Kako bi entropija bila konačna veličina, fazni prostor se mora diskretizirati u konačne jedinice. To znači da se mikrostanje identificira s jednom "ćelijom" unutar faznog prostora, tako da je ukupni volumen podijeljen na konačan broj mikrostanja.
Sada problem predstavlja proizvoljno određivanje veličine tih ćelija, no problem se rješava koristeći spoznaje iz kvantne mehanike.
Kvantna mehanika prirodno nameće minimalni volumen faznog prostora. Zbog načelu neodređenosti čestica nikad ne može biti samo u jednoj točki prostora, najmanja moguća ćelija faznog prostora ima veličinu proporcionalnu Planckovoj konstanti , odnosno čelija koja predstavlja jedno mikrostanje ima minimalni volumen od .
Stoga, broj mikrostanja definira se kao:
Ova formulacija osigurava da je broj mikrostanja konačan i dimenzijski ispravan, čime Boltzmannova jednadžba za entropiju postaje matematički i fizički smislena.
Za kvantno-mehanički sustav opisan matricom gustoće , von Neumannova entropija definira se kao:
ovdje označava trag[14] matrice.
U teoriji informacija, entropija slučajne varijable kvantificira prosječnu razinu neizvjesnosti s potencijalnim stanjima varijabl ili informacija povezanih s mogućim ishodima. Time se mjeri očekivana količina informacija potrebnih za opisivanje stanja varijable, uzimajući u obzir distribuciju vjerojatnosti kroz sva potencijalna stanja. S obzirom na diskretnu slučajnu varijablu , koja može biti bilo koji član unutar skupa i raspodijeljena je prema , entropija se definira kao
gdje se zbraja po svim mogućim vrijednostima varijable.
Koncept informacijske entropije uveo je Claude Shannon u svom radu iz 1948. "Matematička teorija komunikacije",[15][16] i također se naziva Shannonova entropija.
Dio kemije koji se bavi proučavanjem toplinskih promjena u kemijskim reakcijama zove se kemijska termodinamika.
Tvar | S°m/J mol-1 K-1 |
---|---|
CaCO3(S) | 92,9 |
CaO(S) | 39,8 |
CO2(g) | 213,6 |
N2(g) | 191,6 |
H2(g) | 130,7 |
NH3(g) | 192,5 |
- 2.^ Izolirani sustav je onaj koji nije u interakciji sa svojom okolinom. Također, izolirani sustav može se gledati kao cjelokupni Svemir, jer u njemu je sve, te on nije u interakciji ni sa čim okolnim.
- 3.^ Entropija je funkcija stanja, što znači da ovisi samo o konačnom i početnom stanju sustava. Zbog toga što je egzaktni diferencijal, invarijantan je o načinu odvijanja procesa.
- 4.^ Toplina i rad se u termodinamici matematički opisuju kao neegzaktni diferencijali. To znači da njihova promjena ovisi o načinu izvršavanja (putu) procesa.
- 5.^ Prije toga mora se diskretizirati fazni prostor pomoću planckove konstante. Vidjeti sljedeći odlomak entropija u kvantnoj mehanici.
- ↑ Clausius, Rudolf (1850). "Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen". Annalen der Physik (in German). 155 (3): 368–397. Bibcode:1850AnP...155..368C. doi:10.1002/andp.18501550306. hdl:2027/uc1.$b242250. [On the Motive Power of Heat, and on the Laws which can be deduced from it for the Theory of Heat] : Poggendorff's Annalen der Physik und Chemie.
- ↑ Wehrl, Alfred (1 April 1978). "General properties of entropy". Reviews of Modern Physics. 50 (2): 221–260. Bibcode:1978RvMP...50..221W. doi:10.1103/RevModPhys.50.221.
- ↑ https://dizbi.hazu.hr/d17b118n/main/5/r8/bzm/5r8bzmu88jjr.pdf
- ↑ Carnot, S. (1824/1986).
- ↑ entropija. Hrvatska enciklopedija. Leksikografski zavod Miroslav Krleža. 2017.
- ↑ Fermi, E. (1956). "jednadžba 72". Thermodynamics. Dover Publications. str. 52.
- ↑ Tolman, Richard Chace (1979). The Principles of Statistical Mechanics. Courier Corporation. ISBN 978-0-486-63896-6. str. 59
- ↑ E.T. Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391 (1965); https://doi.org/10.1119/1.1971557
- ↑ Masanes, Lluís; Oppenheim, Jonathan (14 March 2017). "A general derivation and quantification of the third law of thermodynamics". Nature Communications. 8 (1): 14538. arXiv:1412.3828. Bibcode:2017NatCo...814538M. doi:10.1038/ncomms14538. ISSN 2041-1723. PMC 5355879. PMID 28290452.
- ↑ Masanes, Lluís; Oppenheim, Jonathan (14 March 2017). "A general derivation and quantification of the third law of thermodynamics". Nature Communications. 8 (1): 14538. arXiv:1412.3828. Bibcode:2017NatCo...814538M. doi:10.1038/ncomms14538. ISSN 2041-1723. PMC 5355879. PMID 28290452.
- ↑ J. Wilks The Third Law of Thermodynamics Oxford University Press (1961)
- ↑ Masanes, Lluís; Oppenheim, Jonathan (14 March 2017). "A general derivation and quantification of the third law of thermodynamics". Nature Communications. 8 (1): 14538. arXiv:1412.3828. Bibcode:2017NatCo...814538M. doi:10.1038/ncomms14538. ISSN 2041-1723. PMC 5355879. PMID 28290452.
- ↑ Fermi, E. (1956). str. 140. Thermodynamics. Dover Publications. str. 52.
- ↑ https://enciklopedija.hr/clanak/trag-matrice
- ↑ Shannon, Claude E. (July 1948). "A Mathematical Theory of Communication". Bell System Technical Journal. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:10338.dmlcz/101429. (PDF, archived from here Archived 20 June 2014 at the Wayback Machine)
- ↑ Shannon, Claude E. (October 1948). "A Mathematical Theory of Communication". Bell System Technical Journal. 27 (4): 623–656. doi:10.1002/j.1538-7305.1948.tb00917.x. hdl:11858/00-001M-0000-002C-4317-B. (PDF, archived from here Archived 10 May 2013 at the Wayback Machine)