Prati, pascoli e paesaggio alpino - SoZooAlp
Prati, pascoli e paesaggio alpino - SoZooAlp
Prati, pascoli e paesaggio alpino - SoZooAlp
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
Fausto Gusmeroli<br />
invece durante i processi di degrado e disfacimento, come, ad esempio, nella morte di<br />
un organismo.<br />
In ragione del secondo principio della termodinamica, all’importazione di entropia<br />
negativa da parte del sistema viene a corrispondere un equivalente aumento di entropia<br />
all’esterno. Il sistema e il suo contorno possono sempre essere immaginati come un unico<br />
sistema, la cui entropia tenderà pertanto ad aumentare per effetto del flusso energetico,<br />
rendendo irreversibili le modificazioni. Solo se il contorno è, a propria volta, un sistema<br />
aperto che può ricevere energia da un altro contorno, si potrebbe avere reversibilità. In<br />
quest’evenienza, aumenterà però l’entropia del nuovo sistema formato dai tre sistemi e<br />
così via, in un catena aperta. L’aumento di entropia e le relative modificazioni irreversibili<br />
stabiliscono così il procedere naturale degli eventi e l’unidirezionalità del tempo.<br />
L’entropia di un sistema può essere misurata come disordine molecolare per mezzo<br />
della formula elaborata dal fisico austriaco Ludwig Boltzmann:<br />
S = - Kb å pi log pi<br />
dove: pi = probabilità dell’evento i<br />
Kb = costante di Boltzmann<br />
La formula evidenzia la stretta analogia, dimostrata in molti studi di cibernetica, che<br />
sussiste tra i concetti di entropia, ordine e informazione 6 . Valori crescenti descrivono stati<br />
di maggiore probabilità e disordine, dati da una disposizione prevalentemente casuale<br />
degli elementi, cui viene a corrispondere bassa informazione e bassa capacità di compiere<br />
lavoro. Quando l’entropia è massima, anche il disordine è massimo (caos) e non vi<br />
è nessuna possibilità di acquisire informazioni e compiere lavoro. Quando, al contrario,<br />
l’entropia è bassa, si ha una situazione ordinata, poco probabile e molto informativa, una<br />
situazione cioè ricca di discontinuità e favorevole all’utilizzo dell’energia, dove le relazioni<br />
tra gli elementi non sono casuali, ma rispondono a precise regole che, a differenza<br />
di quanto accade nelle situazioni caotiche, ne consentono una descrizione sintetica 7 .<br />
Il secondo principio della termodinamica può pertanto essere espresso anche in funzione<br />
dell’ordine e dell’informazione. Si può cioè affermare che ogni sistema lasciato<br />
a se stesso tenderà in media a raggiungere lo stato di massima probabilità, ossia il più<br />
disordinato, o che ogni processo spontaneo che si realizza in un sistema isolato dà come<br />
risultato una diminuzione di informazione. Nei sistemi aperti, l’acquisizione di neg-en-<br />
6 Per illustrare la formula, Boltzmann utilizzò il famoso esempio della scatola divisa da una parete immaginaria<br />
in due scomparti uguali e contenente otto molecole numerate in movimento. Sono possibili cinque stati differenti<br />
nella ripartizione delle molecole tra i due comparti, ossia tutte le molecole collocate in uno scomparto, una in<br />
uno scomparto e sette nell’altro, due e sei, tre e cinque, quattro e quattro. Per ogni stato sono poi possibili varie<br />
configurazioni (microstati o complessioni), di numero crescente quanto minore è la differenza di molecole tra i due<br />
scomparti. I microstati saranno uno solo con tutte le molecole collocate in uno scomparto, otto con una molecola in<br />
uno scomparto e sette nell’altro e via crescendo fino ad un massimo di settanta nella situazione di equiripartizione.<br />
Minore è il numero di microstati, minore è la probabilità che si verifichi quello stato e maggiore è l’ordine. Il<br />
massimo ordine, altamente improbabile, è dunque dato dalle otto molecole in un solo scomparto, quello minimo<br />
(massimo disordine) dallo stato, altamente probabile, di equiripartizione. L’entropia è così definita in termini di<br />
disordine e probabilità.<br />
7 Un semplice esempio è quello di due stringhe numeriche: 0101010101 e 0010111010. La prima può essere<br />
sintetizzata con cinque volte 01, mentre la seconda non è riducibile ad una formula più breve della stringa stessa.<br />
Essa ha un’entropia maggiore della prima o, se si preferisce, è più disordinata, più probabile e meno informativa.<br />
26