Entropia

L'entropia è un concetto astratto che riguarda la quantità di "disordine" presente nei sistemi e il fatto che le trasformazioni naturali hanno una direzione definita nel tempo e non sono reversibili. E' una misura della casualità, della confusione, del rumore e del decadimento dei sistemi. Il concetto di entropia ha avuto origine dagli studi sul flusso del calore; attualmente si ritiene che abbia un profondo significato in aree che vanno dalle scienze fisiche e biologiche alla teoria dell'informazione, alle scienze sociali e, infine, al problema del destino dell'universo.
Il termine entropia fu introdotto verso la metà del sec. XIX dal fisico tedesco Rudolf Clausius, durante i suoi studi sul flusso di calore nei motori a vapore. Clausius applicò questo termine all'inevitabile aumento dell'energia inutilizzabile che si ha ogni volta che si vuole trasformare il calore in lavoro.
Il concetto di entropia fu ripreso dai fisici e dai chimici e divenne noto come seconda legge della termodinamica: questa legge afferma che l'entropia aumenta in tutte le trasformazioni che avvengono in natura. In altre parole, tutti i processi fisici naturali tendono verso l'equilibrio, e un qualsiasi uso dell'energia provoca un'inevitabile perdita della capacità di questa energia a produrre lavoro. Se la sorgente di energia è un oggetto caldo, una parte soltanto del suo calore è disponibile per produrre lavoro utile; il resto dell'energia termica viene disperso nell'ambiente circostante e il disordine generale del sistema aumenta. L'entropia è la misura di questo disordine. Dire che l'entropia aumenta in tutti gli eventi spontanei, equivale a dire che tali eventi finiscono sempre in un disordine maggiore di quello iniziale. Per esempio, l'acqua non scorre spontaneamente verso l'alto, le uova rotte non ritornano intere e le molecole di profumo uscite da una boccetta e diffuse nell'aria non ritornano di nuovo spontaneamente nella boccetta. L'aumento dell'entropia è la direzione del tempo; il disordine termodinamico degli eventi osservati aumenta al passare del tempo. Una delle conseguenze della seconda legge della termodinamica è che le macchine a moto perpetuo non sono possibili. Nessun apparecchio può adoperare l'energia che produce come sua sola sorgente di energia. Al contrario dell'energia, l'entropia non viene conservata.
Nel sec. XX il concetto di entropia fu ripreso da altre discipline, in particolar modo dalla teoria dell'informazione.
Qui l'entropia viene usata anche come una misura della casualità e del disordine, ma senza far intervenire l'inevitabilità e l'irreversibilità. Nelle comunicazioni, l'entropia si riferisce al contenuto d'informazioni di un messaggio ed è una misura dell'incertezza del flusso d'informazioni. Claude Elwood Shannon fu il primo a usare questo termine nel 1948 per descrivere il "rumore" che interferisce con la corretta ricezione delle informazioni. D'altra parte si può definire entropia negativa la ridondanza artificiale d'informazioni, usata spesso per assicurare una ricezione corretta. Perciò nelle comunicazioni vi può essere sia un guadagno che una perdita di entropia. Anche molti altri modelli di comunicazione interpersonale tengono conto dell'entropia, inclusa l'entropia "psicologica" del ricevente. Tali modelli cercano di ottenere i metodi di codifica più efficienti possibile per la trasmissione delle informazioni.
L'utilità e l'importanza del concetto di entropia nei sistemi sociali, così come in quelli fisici e biologici, diventa evidente quando si fanno certe considerazioni. Nel mondo fisico la "freccia del tempo" sembra puntare verso un inevitabile aumento dell'entropia, in quanto gli atomi e le molecole di cui è costituito il mondo tendono verso la loro configurazione più probabile, e il disordine aumenta. La vita, al contrario, dalla sua prima apparizione fino allo sviluppo e all'evoluzione delle società umane complesse, rappresenta una diminuzione, invece che un aumento, di entropia, cioè partendo dal disordine tende verso un ordine sempre maggiore. La seconda legge della termodinamica sembra implicare un decadimento finale dell'universo, mentre la vita è un movimento nella direzione opposta.
Talvolta la vita viene considerata semplicemente una manifestazione locale di diminuzione dell'entropia, senza implicazioni per l'intero universo, cioè soltanto come una via più tortuosa verso la fine inevitabile. Tuttavia alcuni scienziati contestano questa ipotesi. A esempio il chimico belga Ilya Prigogine ha dedicato i suoi studi ad allargare il campo della termodinamica in modo da includere gli organismi viventi e i sistemi sociali. Prigogine, che ha vinto il premio Nobel per la chimica nel 1977, ha sviluppato modelli matematici di quelle che lui chiama strutture dissipative, cioè sistemi in cui l'entropia decresce spontaneamente. Tali sistemi sono stati osservati in certe reazioni chimiche e trasformazioni fisiche, così come nel fenomeno della vita. Il termine dissipativo si riferisce alla loro capacità di dissipare entropia nell'ambiente circostante, aumentando perciò il loro ordine interno. Le idee matematiche di Prigogine, e le conseguenze riguardanti l'interazione creativa fra energia e materia, hanno attirato l'attenzione dei sociologi e degli economisti, così come dei fisici e dei biologi.

Copyright © 2002 Motta Editore

Questa pagina è stata realizzata da Vittorio Villasmunta

Ultimo aggiornamento: 29/11/14