Caricamento in corso
L'angolo dello scrittore

Ordine, disordine – entropia

di Roberto Vacca

“Un posto per ogni cosa – ogni cosa al suo posto.”

Era un cartello campeggiante sulle pareti delle officine meccaniche bene organizzate. “Ordine”, “ordinare”, “razionalizzare” sono percepiti come termini positivi, mentre “disordine” ha una connotazione negativa. Queste implicazioni sono sensate se parliamo di cassetti, magazzini, biblioteche – non lo sono in generale e non quando ci occupiamo di energia termica. In un magazzino di parti meccaniche è bene che tutti i bulloni con uno stesso diametro stiano nello stesso cassetto. Invece se la temperatura nei cilindri della mia auto fosse uguale alla temperatura dell’aria esterna, il veicolo non si muoverebbe. Certe disuniformità danno vantaggi.

Per capire il mondo e prendere decisioni giuste, è bene usare correttamente le parole e conoscere bene il significato delle più importanti. Taluno sostiene che “entropia” sia sinonimo di “disordine” e che sarebbe bene evitare ogni processo che fa crescere l’entropia – indicata come una minaccia.

In effetti in un ciclo termodinamico si definisce “entropia” la somma di tutte le quantità di calore scambiate, ciascuna divisa per la temperatura assoluta alla quale  viene scambiata. A questo rapporto   S = Q/T   Rudolf Clausius diede il nome di entropia (che in greco vuol dire trasformazione). In un sistema chiuso (cioè che non è in rapporto con l’esterno) l’energia è costante, mentre l’entropia cresce sempre: i processi che si svolgono sono irreversibili e comportano perdite che diminuiscono i rendimenti.

Un motore termico ha scambi con l’esterno: viene alimentato con carburante. Nel ciclo di funzionamento, l’entropia cresce e viene prodotta energia utile (meccanica, elettrica). Il risultato ottenuto è positivo. Si tende a svolgere il processo in modo che le perdite siano le più basse e, quindi, i rendimenti i più alti possibili.

Sfruttare fonti di energia (combustibili, idriche, eoliche nucleari) porta, dunque, a far crescere l’entropia e, insieme, produce risultati desiderabili: processi industriali, funzioni meccaniche, trasporti. Non è un’attività dannosa, ma un fattore importante del nostro benessere.

Il concetto di entropia si usa anche in teoria dell’informazione. La formula (trovata da Shannon) definisce il contenuto informativo H di un messaggio costituito da sequenze di i  simboli diversi. Le probabilità pi di trovare in un messaggio ciascuno degli  i  simboli sono diverse e il contenuto informativo del messaggio è

S = – Si pi. log2 (pi)

La probabilità pi corrisponde a un certo numero di eventualità. Il modo più semplice per misurare quante siano è determinare quante scelte del tipo SI/NO si debbano fare per individuarne una. Ogni scelta di tipo SI/NO corrisponde a una cifra binaria o bit (che può valere 1 oppure 0). Il log2 (pi) è il numero di bit necessario a individuare una fra le eventualità considerate. Infatti è l’esponente da dare a 2 per ottenere pi .

L’entropia è misura del disordine: se le molecole di un gas o le lettere che compongono un messaggio scritto sono disposte in modo disordinato – a caso – ogni gruppo di esse avrà le stesse caratteristiche. Dal gas (ovviamente considerato non combustibile) non si potrà produrre energia – e il messaggio non potrà contenere informazione. Qui, però, le cose si complicano: “informazione” non è sinonimo di “significato”.

Il termine “entropia” viene usato spesso in modo metaforico da biologi, sociologi, economisti e ambientalisti. È meglio usarlo solo quando abbiamo abbastanza dati da poterne calcolare davvero il valore.