Entropia (porządek i nieporządek)
W termodynamice entropia jest często kojarzona z wielkością porządku lub nieporządku w układzie termodynamicznym . Wynika to z Rudolfa Clausiusa z 1862 r., że każdy proces termodynamiczny zawsze „przyznaje się do zredukowania [redukcji] do zmiany w taki czy inny sposób ułożenia części składowych ciała roboczego ” i że praca wewnętrzna związana z tymi zmianami jest ilościowo energetycznie za pomocą miary zmiany „entropii”, zgodnie z następującym wyrażeniem różniczkowym :
gdzie Q = energia ruchu („ciepło”), która jest odwracalnie przekazywana do układu z otoczenia , a T = temperatura bezwzględna , w której następuje transfer.
W następnych latach Ludwig Boltzmann przełożył te „zmiany układu” na probabilistyczny pogląd na porządek i nieuporządkowanie w układach molekularnych w fazie gazowej . W kontekście entropii często uważano, że „ doskonały nieład wewnętrzny ” opisuje równowagę termodynamiczną, ale ponieważ pojęcie termodynamiki jest tak dalekie od codziennego myślenia, użycie tego terminu w fizyce i chemii spowodowało wiele zamieszania i nieporozumień.
W ostatnich latach, aby zinterpretować pojęcie entropii, poprzez dalsze opisywanie „zmian układu”, nastąpiło odejście od słów „porządek” i „nieporządek” na rzecz słów takich jak „rozprzestrzenianie się” i „rozproszenie ” .
Historia
Ta perspektywa entropii „uporządkowania molekularnego” wywodzi się z interpretacji ruchu molekularnego opracowanych przez Rudolfa Clausiusa w latach pięćdziesiątych XIX wieku, szczególnie z jego wizualną koncepcją dezgregacji cząsteczek z 1862 roku . Podobnie w 1859 roku, po przeczytaniu pracy Clausiusa na temat dyfuzji cząsteczek, szkocki fizyk James Clerk Maxwell sformułował rozkład Maxwella prędkości cząsteczkowych, który dawał proporcję cząsteczek o określonej prędkości w określonym zakresie. Było to pierwsze w historii prawo statystyczne w fizyce.
W 1864 roku Ludwig Boltzmann , młody student z Wiednia, natknął się na artykuł Maxwella i był nim tak zainspirowany, że poświęcił większość swojego długiego i wybitnego życia na dalsze rozwijanie tematu. Później Boltzmann, starając się opracować kinetyczną teorię zachowania gazu, zastosował prawa prawdopodobieństwa do molekularnej interpretacji entropii Maxwella i Clausiusa, aby zacząć interpretować entropię w kategoriach porządku i nieporządku. Podobnie w 1882 roku Hermann von Helmholtz użył słowa „Unordnung” (nieporządek) do opisania entropii.
Przegląd
Aby podkreślić fakt, że porządek i nieporządek są powszechnie rozumiane jako mierzone w kategoriach entropii, poniżej znajdują się aktualne encyklopedie naukowe i definicje entropii w słowniku naukowym:
- Miara niedostępności energii systemu do wykonania pracy; także miara nieładu; im wyższa entropia, tym większy nieład.
- Miara nieładu; im wyższa entropia, tym większy nieład.
- W termodynamice parametr reprezentujący stan nieuporządkowania układu na poziomie atomowym, jonowym lub molekularnym; im większy nieład, tym wyższa entropia.
- Miara nieporządku we wszechświecie lub niedostępności energii w systemie do wykonania pracy.
Entropia i nieporządek również mają związek z równowagą . Z technicznego punktu widzenia entropia jest z tej perspektywy definiowana jako właściwość termodynamiczna, która służy jako miara tego, jak blisko układu znajduje się równowaga — to znaczy doskonałego wewnętrznego nieładu . Podobnie wartość entropii rozkładu atomów i cząsteczek w układzie termodynamicznym jest miarą nieuporządkowania w układach jego cząstek. Na przykład w rozciągniętym kawałku gumy układ cząsteczek jego struktury ma „uporządkowany” rozkład i ma zerową entropię, podczas gdy „nieuporządkowany” perwersyjny rozkład atomów i cząsteczek w gumie w nierozciągniętym stan ma dodatnią entropię. Podobnie w gazie porządek jest doskonały, a miara entropii układu ma najmniejszą wartość, gdy wszystkie cząsteczki znajdują się w jednym miejscu, natomiast gdy zajętych jest więcej punktów, gaz jest tym bardziej nieuporządkowany, a miara entropii systemu ma największą wartość.
W ekologii systemów , jako kolejny przykład, entropia zbioru elementów składających się na system jest definiowana jako miara ich nieporządku lub równoważnie względnego prawdopodobieństwa chwilowej konfiguracji elementów. Co więcej, według ekologa teoretyka i inżyniera chemika Roberta Ulanowicza , „ta entropia może zapewnić kwantyfikację dotychczasowego subiektywnego pojęcia nieporządku, zrodziła niezliczone narracje naukowe i filozoficzne”. W szczególności wielu biologów zaczęło mówić w kategoriach entropii organizmu lub jej antonimu negentropii jako miary porządku strukturalnego w organizmie.
podstawy dotyczące związku entropii z porządkiem i nieporządkiem Boltzmanna , która wiąże entropię S z liczbą możliwych stanów W , w których można znaleźć system. Jako przykład rozważmy pudełko podzielone na dwie części. Jakie jest prawdopodobieństwo, że pewna liczba lub wszystkie cząstki zostaną znalezione w jednej sekcji w porównaniu z drugą, gdy cząsteczki zostaną losowo przydzielone do różnych miejsc w pudełku? Jeśli masz tylko jedną cząstkę, to ten system jednej cząstki może istnieć w dwóch stanach, po jednej stronie pudełka i po drugiej. Jeśli masz więcej niż jedną cząstkę lub zdefiniujesz stany jako dalsze lokalizacyjne podziały pudełka, entropia jest większa, ponieważ liczba stanów jest większa. Związek między entropią, porządkiem i nieporządkiem w równaniu Boltzmanna jest tak wyraźny wśród fizyków, że zgodnie z poglądami ekologów termodynamicznych Svena Jorgensena i Jurija Swireżewa „jest oczywiste, że entropia jest miarą porządku lub, najprawdopodobniej, nieporządku w system." W tym kierunku druga zasada termodynamiki, słynnie ogłoszona przez Rudolfa Clausiusa w 1865 r., stwierdza, że:
Entropia wszechświata dąży do maksimum.
Tak więc, jeśli entropia jest związana z nieporządkiem i jeśli entropia wszechświata zmierza w kierunku entropii maksymalnej, to wielu często zastanawia się nad naturą procesu „uporządkowania” i działania ewolucji w odniesieniu do najsłynniejszej wersji Clausiusa drugie prawo, które mówi, że wszechświat zmierza w kierunku maksymalnego „nieporządku”. Na przykład w niedawno wydanej w 2003 roku książce SYNC – the Emerging Science of Spontaneous Order autorstwa Stevena Strogatza czytamy: „Naukowcy często byli zdumieni istnieniem spontanicznego porządku we wszechświecie. Prawa termodynamiki wydają się dyktować coś przeciwnego, że natura powinna nieuchronnie degenerować się w kierunku stanu większego nieporządku, większej entropii. Jednak wszędzie wokół nas widzimy wspaniałe struktury – galaktyki, komórki, ekosystemy, istoty ludzkie – które w jakiś sposób zdołały się złożyć”.
Powszechnym argumentem używanym do wyjaśnienia tego jest to, że lokalnie entropię można obniżyć przez działanie zewnętrzne, np. działanie ogrzewania słonecznego, i że dotyczy to maszyn, takich jak lodówka, w których entropia w zimnej komorze jest zmniejszana, do wzrostu kryształów i organizmów żywych. Ten lokalny wzrost porządku jest jednak możliwy tylko kosztem wzrostu entropii w otoczeniu; tutaj trzeba stworzyć więcej nieładu. Kondycjonerem tego stwierdzenia jest to, że systemy żywe są systemami otwartymi , w których zarówno ciepło , masa , jak i praca mogą być wprowadzane lub wyprowadzane z systemu. W przeciwieństwie do temperatury, przypuszczalna entropia żywego systemu zmieniłaby się drastycznie, gdyby organizm był izolowany termodynamicznie. Gdyby organizm znajdował się w tego rodzaju „izolowanej” sytuacji, jego entropia znacznie wzrosłaby, gdy niegdyś żywe składniki organizmu rozpadłyby się do nierozpoznawalnej masy.
Zmiana fazy
Dzięki tym wczesnym osiągnięciom typowy przykład zmiany entropii Δ S jest związany ze zmianą fazy. Na przykład w ciałach stałych, które są zwykle uporządkowane w skali molekularnej, zwykle mają mniejszą entropię niż ciecze, a ciecze mają mniejszą entropię niż gazy, a zimniejsze gazy mają mniejszą entropię niż cieplejsze gazy. Co więcej, zgodnie z trzecią zasadą termodynamiki , w temperaturze zera bezwzględnego struktury krystaliczne mają w przybliżeniu doskonały „porządek” i zerową entropię. Ta korelacja występuje, ponieważ liczba różnych mikroskopijnych stanów energii kwantowej dostępnych dla uporządkowanego systemu jest zwykle znacznie mniejsza niż liczba stanów dostępnych dla systemu, który wydaje się być nieuporządkowany.
Na podstawie swoich słynnych Wykładów z teorii gazów z 1896 r . Boltzmann przedstawia diagramy struktury ciała stałego, jak pokazano powyżej, postulując, że każda cząsteczka w ciele ma „pozycję spoczynkową”. Według Boltzmanna, jeśli zbliża się do sąsiedniej cząsteczki, jest przez nią odpychany, ale jeśli oddala się, następuje przyciąganie. Była to oczywiście perspektywa rewolucyjna w swoim czasie; wielu w tamtych latach nie wierzyło w istnienie ani atomów, ani cząsteczek (patrz: historia cząsteczki ). Zgodnie z tymi wczesnymi poglądami i innymi, takimi jak te opracowane przez Williama Thomsona , jeśli energia w postaci ciepła jest dodawana do ciała stałego, aby przekształcić je w ciecz lub gaz, powszechnym przedstawieniem jest to, że uporządkowanie atomów a cząsteczki stają się bardziej przypadkowe i chaotyczne wraz ze wzrostem temperatury:
Tak więc, według Boltzmanna, z powodu wzrostu ruchu termicznego, ilekroć ciepło jest dostarczane do substancji roboczej, pozycja spoczynkowa cząsteczek zostanie odepchnięta, ciało rozszerzy się, a to stworzy bardziej nieuporządkowane molowo rozkłady i układy cząsteczek . Te nieuporządkowane układy następnie korelują, za pomocą argumentów prawdopodobieństwa, ze wzrostem miary entropii.
Porządek napędzany entropią
Entropia była historycznie, np. przez Clausiusa i Helmholtza, kojarzona z nieporządkiem. Jednak w mowie potocznej porządek jest używany do opisania organizacji, regularności strukturalnej lub formy, podobnie jak w krysztale w porównaniu z gazem. To powszechne pojęcie porządku jest opisane ilościowo przez teorię Landaua . W teorii Landaua rozwój porządku w sensie potocznym zbiega się ze zmianą wartości wielkości matematycznej, tzw. parametru porządku . Przykładem parametru porządku dla krystalizacji jest „porządek orientacji wiązań” opisujący rozwój preferowanych kierunków (osi krystalograficznych) w przestrzeni. W przypadku wielu układów fazy o większym porządku strukturalnym (np. krystaliczny) wykazują mniejszą entropię niż fazy płynne w tych samych warunkach termodynamicznych. W takich przypadkach etykietowanie faz jako uporządkowanych lub nieuporządkowanych zgodnie ze względną wielkością entropii (zgodnie z pojęciem porządku / nieporządku Clausiusa / Helmholtza) lub poprzez istnienie regularności strukturalnej (zgodnie z pojęciem porządku / nieporządku Landaua) daje pasujące etykiety.
Istnieje jednak szeroka klasa układów, które przejawiają porządek sterowany entropią, w których fazy z organizacją lub regularnością strukturalną, np. kryształy, mają wyższą entropię niż fazy strukturalnie nieuporządkowane (np. płynne) w tych samych warunkach termodynamicznych. W tych systemach fazy, które można by określić jako nieuporządkowane ze względu na ich wyższą entropię (w sensie Clausiusa lub Helmholtza), są uporządkowane zarówno w sensie potocznym, jak iw teorii Landaua.
Przewiduje się lub odkryto, że w odpowiednich warunkach termodynamicznych entropia indukuje tworzenie uporządkowanych ciekłych kryształów, kryształów i kwazikryształów. W wielu systemach kierunkowe siły entropiczne napędzają to zachowanie. Niedawno wykazano, że możliwe jest precyzyjne projektowanie cząstek dla docelowych uporządkowanych struktur.
Demagnetyzacja adiabatyczna
W poszukiwaniu ultra niskich temperatur stosowana jest technika obniżania temperatury zwana demagnetyzacją adiabatyczną , w której wykorzystuje się rozważania na temat entropii atomowej, którą można opisać terminami porządku i nieporządku. W tym procesie próbka ciała stałego, takiego jak sól chromowo-ałunowa, której cząsteczki są równoważne maleńkim magnesom, znajduje się w izolowanej obudowie schłodzonej do niskiej temperatury, zazwyczaj 2 lub 4 kelwinów, przy czym do pojemnika przykładane jest silne pole magnetyczne za pomocą silnego magnesu zewnętrznego, tak że maleńkie magnesy molekularne są wyrównane, tworząc dobrze uporządkowany stan „początkowy” w tak niskiej temperaturze. To magnetyczne wyrównanie oznacza, że energia magnetyczna każdej cząsteczki jest minimalna. Zewnętrzne pole magnetyczne jest następnie redukowane, a usuwanie uważa się za ściśle odwracalne . Po tej redukcji magnesy atomowe przyjmują następnie losowe, mniej uporządkowane orientacje, z powodu wstrząsów termicznych, w stanie „końcowym”:
„Nieporządek”, a co za tym idzie entropia związana ze zmianą ułożenia atomów, wyraźnie wzrosła. Jeśli chodzi o przepływ energii, ruch ze stanu wyrównanego magnetycznie wymaga energii z ruchu termicznego cząsteczek, przekształcając energię cieplną w energię magnetyczną. Jednak zgodnie z drugą zasadą termodynamiki , ponieważ żadne ciepło nie może dostać się ani wyjść z pojemnika, ze względu na jego adiabatyczną izolację, układ nie powinien wykazywać zmiany entropii, tj. Δ S = 0. Wzrost nieuporządkowania związany jest jednak z losowe kierunki magnesów atomowych reprezentują wzrost entropii ? Aby to zrekompensować, zaburzenie (entropia) związane z temperaturą próbki musi zmniejszyć się o tę samą wartość. Temperatura spada zatem w wyniku tego procesu przekształcania energii cieplnej w energię magnetyczną. Jeśli pole magnetyczne zostanie następnie zwiększone, temperatura wzrośnie i sól magnetyczna musi zostać ponownie schłodzona za pomocą zimnego materiału, takiego jak ciekły hel.
Trudności z terminem „zaburzenie”
W ostatnich latach długotrwałe używanie terminu „nieporządek” do omawiania entropii spotkało się z pewną krytyką. Krytycy tej terminologii twierdzą, że entropia nie jest miarą „nieporządku” ani „chaosu”, ale raczej miarą dyfuzji lub rozproszenia energii do większej liczby mikrostanów. Użycie przez Shannona terminu „entropia” w teorii informacji odnosi się do najbardziej skompresowanej lub najmniej rozproszonej ilości kodu potrzebnej do objęcia zawartości sygnału.
Zobacz też
- Entropia
- Produkcja entropii
- Współczynnik entropii
- Historia entropii
- Entropia mieszania
- Entropia (teoria informacji)
- Entropia (obliczenia)
- Entropia (rozproszenie energii)
- Druga zasada termodynamiki
- Entropia (termodynamika statystyczna)
- Entropia (termodynamika klasyczna)
Linki zewnętrzne
- Lambert, Floryda Miejsca entropii — przewodnik
- Lambert, Floryda Potasowane karty, nieporządne biurka i nieporządne pokoje w akademiku – przykłady wzrostu entropii? Nonsens! Journal of Chemical Education