fysikaalinen suure, joka kuvaa systeemin epäjärjestyksen määrää From Wikipedia, the free encyclopedia
Entropia on fysikaalinen suure, joka ilmaisee epäjärjestyksen määrän systeemissä.[1][2] Entropian käsitettä käytetään termodynamiikassa ja tilastollisessa mekaniikassa. Informaatioteoriassa entropialla mitataan viestin sisältämän informaation määrää. Entropian käsitteen otti fysiikassa ensimmäisenä käyttöön Rudolf Clausius.[1] Suomenkielisenä vastineena on joskus käytetty myös sanaa haje.[3]
Termodynamiikan toinen pääsääntö voidaan ilmaista entropian avulla siten, että eristetyn systeemin entropia voi kasvaa mutta ei koskaan vähetä[4].
Systeemin entropia voidaan määritellä kahdella hyvin erilaisella tavalla: joko siirtyvän lämpömäärän ja absoluuttisen lämpötilan suhteena tai samaa makrotilaa vastaavien mikrotilojen lukumäärän logaritmina. Erilaisuudestaan huolimatta nämä määritelmät ovat kuitenkin osoittautuneet keskenään yhtäpitäviksi.
Termodynamiikassa entropian muutos määritellään kaavalla
missä on suljettuun systeemiin tuleva lämpömäärä (tai systeemistä lähtevä lämpömäärä, jolloin on negatiivinen) ja systeemin lämpötila kelvineinä. Systeemin tilavuuden oletetaan olevan vakio. Jos lämpötilan muutos on pieni, entropian muutos on käytännössä yhtä suuri kuin luovutettu tai vastaanotettu lämpömäärä jaettuna tällä kelvin-lämpötilalla. On huomattava, että kaava ei kerro systeemin entropiaa, ainoastaan sen muutoksen.[5] Kaikissa irreversiibeleissä eli palautumattomissa prosesseissa entropia kasvaa.[6]
Esimerkki irreversiibelistä prosessista on kahden eri lämpötilassa olevan aineen sekoittaminen, jolloin aineiden välinen lämpötilaero tasoittuu. Tällöin ennestään lämpimämmän aineen entropia tosin pienenee sen viiletessä, mutta kylmemmän aineen entropia kasvaa vielä enemmän sen lämmetessä (koska kaavassa oleva jakaja eli lämpötila on pienempi). Lopputulemana systeemin kokonaisentropia kasvaa.[7]
Tarkkaan ottaen termodynamiikan toinen pääsääntö on vain todennäköisyyslaki. Samankin lämpötilan vallitessa aineessa on aina sekaisin nopeasti ja hitaasti liikkuvia molekyylejä. Jos jossakin suljetussa astiassa kaikki nopeat kaasumolekyylit kerääntyisivät astian toiseen ja hitaat toiseen reunaan, edellisessä lämpötila nousisi ja jälkimmäisessä alenisi. Samalla systeemin entropia pienenisi. On kuitenkin äärimmäisen epätodennäköistä että näin tapahtuisi, eikä sen kaltaista ilmiötä ole milloinkaan havaittu, ja näin ollen lakia voidaan pitää käytännöllisesti yleispätevänä[8].
Entropia voidaan määritellä myös tilastollisen fysiikan käsittein seuraavasti:
missä on samaa makroskooppista tilaa vastaavien mikrotilojen lukumäärä ja k on lähinnä mittayksikön määrittävä keinotekoinen vakio.[9] Mikrotilojen lukumäärästä Ω käytetään myös nimitystä statistinen paino[9] Joskus sitä sanotaan myös tilan termodynaamiseksi todennäköisyydeksi[10], ja itse asiassa makrotila onkin sitä todennäköisempi, mitä suurempi sen statistinen paino on; matemaattisesta todennäköisyyskäsitteestä tämä kuitenkin eroaa siinä, että sen arvo on yleensä suurempi kuin 1 (vieläpä yleensä erittäin suuri luku).
Tämän määritelmän entropialle esitti ensimmäisenä Ludwig Boltzmann 1800-luvun lopulla, ja hän sovelsi sitä termodynamiikkaan. Tällöin mikrotilat vastaavat tapoja, joilla systeemin kokonaisenergia voi olla jakautunut eri molekyylien kesken. Vaikka tämä määritelmä on täysin erilainen kuin edellä esitetty, jo aiemmin tunnettu, lämpömäärään ja lämpötilaan perustuva määritelmä, Boltzmann osoitti nämä yhtäpitäviksi: samassa termodynaamisessa prosessissa kummallakin tavalla laskettu entropian muutos on aina yhtä suuri. Kaavassa esiintyvä vakio k on Boltzmannin vakio (1,380658 · 10−23 J/K). Mikäli kaikkien mikrotilojen todennäköisyys on sama, voidaan lauseke yksinkertaistaa muotoon
missä on kaikkien mahdollisten mikrotilojen lukumäärä tietyssä makroskooppisessa tilassa. Entropia on siis tiettyä makrotilaa vastaavien mikrotilojen lukumäärän (eli tilan ns. statistisen painon) logaritmi.[9]
Informaatio- eli viestintäteoriassa entropia on suure, joka mittaa viestin (esimerkiksi sarja binäärimuotoisia bittejä) sisältämän informaation määrää.[11]
Arkinen vertauskuva entropiasta on huoneen epäjärjestyksen kasvaminen, mikäli ei tee työtä sen siistinä pitämiseksi. Vaikka tässä vertauskuvassa onkin enemmän kyse huolimattomuudesta kuin entropiasta, kuvastaa se silti asioiden pyrkimystä kohti suurempaa epäjärjestystä.[12]
Mikäli oletetaan, että maailmankaikkeus on äärellinen, eristetty systeemi, sen kokonaisentropia on jatkuvassa kasvussa. Nykykäsityksen mukaan näkyvä maailmankaikkeus laajenee kiihtyvällä tahdilla: se merkitsee, että vähitellen aine ja lämpöenergia hajaantuvat yhä tasaisemmin avaruuteen. Mikäli kaikkeus kulkee kohti suurinta mahdollista entropiaa, lopulta päädytään lämpökuolemaksi kutsuttuun tasapainotilaan, jossa ei voi enää tapahtua muutosta. Kaikkeuden lopullinen kohtalo on kuitenkin yhä epävarma, ja kosmologian kehittyessä uusia kehitysnäkymiä saattaa tulla ilmi.[13] Ylipäätään on kyseenalaista puhua maailmankaikkeudesta eristettynä systeeminä, koska sen äärellisyydestä ei ole mitään viitteitä. Sen sijaan esimerkiksi avaruuden laakeus viittaa äärettömään maailmankaikkeuteen[14].
Maapalloa voidaan pitää suljettuna systeeminä, koska se ei kovin suuressa määrin vastaanota ainetta avaruudesta eikä luovuta sitä; tällöin jätetään huomiotta meteoriittien maapallolle tuoma, suhteellisen vähäinen ainemäärä.[15] Maapallo ei kuitenkaan ole eristetty systeemi, sillä sinne virtaa jatkuvasti Auringon säteilyenergiaa ja samalla maapallo säteilee energiaa avaruuteen lämpösäteilynä.[16]
Energia- ja massavirtojen myötä voi eristämättömän systeemin entropia kasvaa tai vähentyä.[17][18][19] Niinpä maapallollakin aine- ja energiavirrat voivat paikallisesti saada aikaan entropian vähenemistä, esimerkiksi lämpötilaeroja Maan eri alueiden välille, mutta silti entropia kasvaa laajemmassa systeemissä, jonka muodostavat Aurinko, Maa ja ympäröivä avaruus. Entropiaa virtaa pois Maasta noin 0,9 W/K pinnan neliömetriä kohti.[20]
Elävät olennot eivät ole eristettyjä eivätkä edes suljettuja systeemejä.[21]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.