29.05.2013 Views

Prati, pascoli e paesaggio alpino - SoZooAlp

Prati, pascoli e paesaggio alpino - SoZooAlp

Prati, pascoli e paesaggio alpino - SoZooAlp

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

Fausto Gusmeroli<br />

invece durante i processi di degrado e disfacimento, come, ad esempio, nella morte di<br />

un organismo.<br />

In ragione del secondo principio della termodinamica, all’importazione di entropia<br />

negativa da parte del sistema viene a corrispondere un equivalente aumento di entropia<br />

all’esterno. Il sistema e il suo contorno possono sempre essere immaginati come un unico<br />

sistema, la cui entropia tenderà pertanto ad aumentare per effetto del flusso energetico,<br />

rendendo irreversibili le modificazioni. Solo se il contorno è, a propria volta, un sistema<br />

aperto che può ricevere energia da un altro contorno, si potrebbe avere reversibilità. In<br />

quest’evenienza, aumenterà però l’entropia del nuovo sistema formato dai tre sistemi e<br />

così via, in un catena aperta. L’aumento di entropia e le relative modificazioni irreversibili<br />

stabiliscono così il procedere naturale degli eventi e l’unidirezionalità del tempo.<br />

L’entropia di un sistema può essere misurata come disordine molecolare per mezzo<br />

della formula elaborata dal fisico austriaco Ludwig Boltzmann:<br />

S = - Kb å pi log pi<br />

dove: pi = probabilità dell’evento i<br />

Kb = costante di Boltzmann<br />

La formula evidenzia la stretta analogia, dimostrata in molti studi di cibernetica, che<br />

sussiste tra i concetti di entropia, ordine e informazione 6 . Valori crescenti descrivono stati<br />

di maggiore probabilità e disordine, dati da una disposizione prevalentemente casuale<br />

degli elementi, cui viene a corrispondere bassa informazione e bassa capacità di compiere<br />

lavoro. Quando l’entropia è massima, anche il disordine è massimo (caos) e non vi<br />

è nessuna possibilità di acquisire informazioni e compiere lavoro. Quando, al contrario,<br />

l’entropia è bassa, si ha una situazione ordinata, poco probabile e molto informativa, una<br />

situazione cioè ricca di discontinuità e favorevole all’utilizzo dell’energia, dove le relazioni<br />

tra gli elementi non sono casuali, ma rispondono a precise regole che, a differenza<br />

di quanto accade nelle situazioni caotiche, ne consentono una descrizione sintetica 7 .<br />

Il secondo principio della termodinamica può pertanto essere espresso anche in funzione<br />

dell’ordine e dell’informazione. Si può cioè affermare che ogni sistema lasciato<br />

a se stesso tenderà in media a raggiungere lo stato di massima probabilità, ossia il più<br />

disordinato, o che ogni processo spontaneo che si realizza in un sistema isolato dà come<br />

risultato una diminuzione di informazione. Nei sistemi aperti, l’acquisizione di neg-en-<br />

6 Per illustrare la formula, Boltzmann utilizzò il famoso esempio della scatola divisa da una parete immaginaria<br />

in due scomparti uguali e contenente otto molecole numerate in movimento. Sono possibili cinque stati differenti<br />

nella ripartizione delle molecole tra i due comparti, ossia tutte le molecole collocate in uno scomparto, una in<br />

uno scomparto e sette nell’altro, due e sei, tre e cinque, quattro e quattro. Per ogni stato sono poi possibili varie<br />

configurazioni (microstati o complessioni), di numero crescente quanto minore è la differenza di molecole tra i due<br />

scomparti. I microstati saranno uno solo con tutte le molecole collocate in uno scomparto, otto con una molecola in<br />

uno scomparto e sette nell’altro e via crescendo fino ad un massimo di settanta nella situazione di equiripartizione.<br />

Minore è il numero di microstati, minore è la probabilità che si verifichi quello stato e maggiore è l’ordine. Il<br />

massimo ordine, altamente improbabile, è dunque dato dalle otto molecole in un solo scomparto, quello minimo<br />

(massimo disordine) dallo stato, altamente probabile, di equiripartizione. L’entropia è così definita in termini di<br />

disordine e probabilità.<br />

7 Un semplice esempio è quello di due stringhe numeriche: 0101010101 e 0010111010. La prima può essere<br />

sintetizzata con cinque volte 01, mentre la seconda non è riducibile ad una formula più breve della stringa stessa.<br />

Essa ha un’entropia maggiore della prima o, se si preferisce, è più disordinata, più probabile e meno informativa.<br />

26

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!