Equilibrio locale, produzione di entropia e interazione termica

Dal testo “Non-Equilibrium Thermodynamics” di De Groot e Mazur ho tracciato #qui alcuni appunti sulla produzione di entropia nel fenomeno di conduzione del calore, governato dalla ben nota legge di Fourier e trascurando effetti incrociati governati dalle relazioni di reciprocità di Onsager.

Il sistema si trova nella regione lineare della termodinamica del non-equilibrio, dove valgono equazioni fenomenologiche per cui i flussi – nel nostro caso il calore che si propaga – sono proporzionali alle forze termodinamiche – nel nostro caso il gradiente termico – e la minima produzione di entropia porta all’equilibrio per sistemi isolati oppure allo stato stazionario per sistemi chiusi. Pare dunque che il principio di entropia, e con esso la freccia del tempo, si possa ulterioremente riformulare così: “In presenza di deboli forze termodinamiche un sistema qualsiasi (isolato o non isolato) nel tempo tende spontaneamente a minimizzare la propria produzione di entropia”.

Anche nel  testo “Modern Termodynamics” di Prigogine è presente questa trattazione. In quel libro si sottolinea ulteriormente che la formulazione locale di tutte queste leggi presuppone la validità delle ipotesi di equilibrio locale, per cui è possibile considerare volumetti puntiformi composti ancora da molte particelle che passano rapidamente da uno stato di equilibrio all’altro. I tempi per la termalizzazione di questi volumetti, secondo il progetto di Boltzmann di emergenza della freccia del tempo dal microscopico al macroscopico, sono considerati molto brevi rispetti ai tempi di rilassamento all’equilibrio studiati in questo approccio. Si presuppone dunque che, ad ogni istante di tempo e in ogni punto del sistema, ogni volumetto presenti una distribuzione maxwelliana delle velocità. Possiamo dunque considerare questa trattazione – pienamente macroscopica – complementare al lavoro di Boltzmann, il quale è più fondativo (si veda il teorema H) ma meno fenomenologico (si pensi alla vastità di fenomeni descritti in forma unitaria dalla termodinamica del non-equilibrio).

Ipotesi di caos molecolare

Sia dato un gas ideale molto rarefatto in uno stato di non-equilibrio termico, cioè un sistema di moltissime particelle debolmente interagenti che si muovono in modo caotico e che non presentano inizialmente una distribuzione delle velocità uguale a quella di equilibrio. Se questo sistema isolato viene lasciato evolvere l’equazione di stato prevede che dopo un certo tempo verrà raggiunto l’equilibrio la cui temperatura è legata ai valori di pressione, volume e numero di moli del gas stesso. Dal punto di vista microscopico avremo che la distribuzione iniziale delle velocità raggiungerà quella di Maxwell-Boltzmann e rimarrà tale nei tempi successivi.

Se definiamo l’entropia del gas allo stato iniziale come la somma delle entropie di equilibrio di numerosi sottosistemi in equilibrio locale, essa sarà sempre minore dell’entropia nello stato di equilibrio finale, grazie al secondo principio della termodinamica riformulato in chiave moderna da De Groot e Mazur. Analogamente in virtù del teorema H di Boltzmann esiste un funzionale che diminuisce nel tempo sotto ipotesi di caos molecolare e tale funzionale all’equilibrio è proporzionale all’opposto dell’entropia.

Ora sorge una domanda: come possiamo definire con precisione le ipotesi di caos molecolare? Sono ingredienti essenziali per giustificare l’emergenza della freccia del tempo dall’approccio microscopico a quello macroscopico, quindi non possiamo mantenere nel vago la definizione di caos molecolare.

– Boltzmann nel 1872 scrive: “Vogliamo accettare solo due limitazioni che stanno nella natura delle cose. E’ ben chiaro che, dopo il trascorrere di un tempo molto lungo, per la direzione di ogni molecola ogni direzione nello spazio sarà ugualmente probabile. Se perciò si tratta semplicemente di trovare la distribuzione delle velocità prodotta dopo un lungo tempo, possiamo assumere che già dall’inizio ogni direzione sia stata equiprobabile. Si può ridurre il caso più generale a nessun’altra distribuzione di stato che questa specifica. Sia questa la prima limitazione che vogliamo porre. La seconda sia che la distribuzione di velocità sia uniforme [nello spazio] già dall’inizio […] [per cui ad esempio] non vi sono a destra [particelle] più veloci e a sinistra più lente […]. E’ chiaro che entrambe le condizioni saranno soddisfatte anche per tutto il tempo, ossia che lo stato del gas al tempo  t  è completamente determinato dalla funzione  f(x,t)  “.

Boltzmann si riferisce a “f” per indicare la distribuzione e a “x” per indicare l’energia cinetica di singola particella (da cui si può ricavare la velocità, ovviamente) e ricava una equazione integro-differenziale e non lineare che permette di calcolare  f(x,t)  a partire da  f(x,0). Le uniche responsabili della variazione della distribuzione sono le collisioni, dovute a forze centrali e dipendenti dalla sola distanza reciproca tra due particelle. In merito a tali interazioni Boltzmann definisce una funzione  ” \psi ” che in virtù dell’ipotesi sul numero di collisione (Stosszahlansatz) soddisfa questa regola (x e x’ indicano le energie cinetiche prima della collisione, mentre \xi indica l’energia cinetica della prima particella dopo la collisione):   \sqrt{xx'}\psi(x,x',\xi)=\sqrt{\xi(x+x'-\xi)}\psi(\xi,x-x'-\xi,x)  . E’ cruciale affermare che senza questa ipotesi non potremmo avere l’equazione di Boltzmann nella forma utilizzata da lui stesso nel teorema H e dunque non potremmo dimostrare che “H(t)” diminuisce nel tempo al variare della distribuzione “f(x,t)” fino a raggiungere la distribuzione di equilibrio, per poi rimanere costante nel tempo.

– Huang nel 1963 definisce una funzione di correlazione “F” e afferma, sulla linea di lavoro di Boltzmann, che “gli impulsi di due particelle nell’elemento di volume sono scorrelati, in tal modo la probabilità di trovarli simultaneamente è uguale al prodotto delle probabilità di trovarli singolarmente. Questa è conosciuta come l’assunzione del caos molecolare”.

Tuttavia viene fatto un passo avanti: “L’evoluzione nel tempo di H è determinata dalla evoluzione nel tempo della distribuzione f, che in generale non soddisfa l’equazione del trasporto di Boltzmann. Essa soddisfa tale equazione solo nell’istante in cui diventa valida l’assunzione di caos molecolare. Il teorema H afferma che se ad un dato istante  t   lo stato del gas soddisfa l’assunzione del caos molecolare, allora all’istante t+\epsilon  (con incremento tendente a zero) o dH/dt  \leq  0 oppure dH/dt =  0 ma solo nel caso in cui la distribuzione sia quella di Maxwell-Boltzmann […]. [L’assunzione di caos molecolare] non ha niente a che vedere con la forma della funzione di distribuzione, cosicché uno stato del gas con una certa funzione di distribuzione può oppure no soddisfare l’assunzione del caos molecolare”.

Huang poi dimostra (utilizzando l’invarianza temporale delle equazioni del moto) che quando il gas è in uno stato di caos molecolare allora H è in un picco locale e giunge a riformulare il teorema H in questo modo: “se adesso c’è caos molecolare, allora al prossimo istante dH/dt  \leq  0 ; se nel prossimo istante ci sarà caos molecolare, allora adesso vale dH/dt \geq   0 “. Viene dunque affermato che la funzione “derivata di H rispetto al tempo” non è necessariamente una funzione continua nel tempo, potendo cambiare improvvisamente per gli urti molecolari. Possiamo quindi comprendere come H subisca numerose e piccole fluttuazioni nel tempo (con rarissimi casi di fluttuazioni elevate), la sequenza temporale degli stati di caos molecolare sia casuale e dunque che l’equazione del trasporto di Boltzmann sia da considerare valida in un senso statistico (come ho accennato nel mio post precedente si veda in merito il lavoro di Kac sulla costruzione – a partire dall’equazione di Boltzmann – di una master equation; vengono riviste le ipotesi di caos molecolare utilizzando un approccio probabilistico). Possiamo infine immaginarci il “tendere all’equilibrio” con il seguente grafico, proposto dallo stesso Huang.

fdt-huang

La teoria cinetica e l’emergenza della freccia del tempo

Seguendo sempre il testo di Segré troviamo un elenco sterminato di persone lungo la storia della teoria cinetica: Bernoulli (1738), Avogadro (1811), Herapath (1820) e Waterston (1851), Rayleigh, Kroenig (1822-1879), ancora Clausius (1857), Maxwell (1859, 1860, 1867), Boltzmann (1866, 1871, 1872, 1877), Zermelo, Loschmidt, Watson (1876), Liouville, Cagniard (1822), Andrews, Cailletet, Pictet, Deville, Wroblewski, Olzewski, Dewar, Onnes (1908), van der Waals (1873), Gibbs, Helmholtz, Planck, Einstein.

Vediamo perché la teoria cinetica, in particolare con il lavoro di Clausius, Maxwell ma soprattutto Boltzmann, giustifica il secondo principio della termodinamica e dunque riformuliamo adeguatamente la freccia del tempo.

Nel 1866 Boltzmann trovò un risultato valido però solo per processi reversibili, e nel 1871 anche Clausius, indipendentemente. Nel 1867 Maxwell cercò di dare una prova rigorosa della distribuzione delle velocità molecolari di un gas in equilibrio, scoperta nel 1859; inoltre fu proprio Maxwell a intuire la natura statistica del secondo principio della termodinamica e il passaggio dunque dall’impossibilità di alcuni fenomeni (secondo la formulazione di Clausius o di Kelvin) ad una altissima improbabilità che tali fenomeni si osservino.

Ma nel 1871 e 1872 abbiamo il grande passo dovuto a Boltzmann che trovò come cambia la distribuzione delle velocità di un gas passando attraverso stati di non-equilbrio e raggiungendo l’equilibrio (grazie alla sua equazione del trasporto il cui studio è ancora attuale). L’ingrediente essenziale sono gli urti tra le molecole e quella che è definita al giorno d’oggi l’ipotesi di caos molecolare.

Ma non è finita qui. Boltzmann formulò il famoso teorema H definendo questa grandezza fisica (che altri non è che l’opposto dell’entropia definita da Clausius, divisa per la costante di Boltzmann!) su basi microscopiche e dimostrando, sempre sotto ipotesi di caos molecolare, che H diminuisce nel tempo durante il passaggio di un gas da stati di non-equilibrio allo stato finale di equilibrio, regolato dalla distribuzione di Maxwell delle velocità. Infine il sistema all’equilibrio mantiene costante nel tempo il suo valore di H. In formule (il simbolo dopo l’uguale indica un integrale, è una somma di infiniti addendi, comunque più avanti trovi una formula più semplice per l’entropia S)

teoremaH

Boltzmann migliorò il suo lavoro nel 1877, in risposta a obiezioni quali il paradosso di reversibilità e il paradosso di ricorrenza. Da queste discussioni emerse chiaramente che il valore di H diminuisce o rimane costante solo trascurando sue piccole fluttuazioni che sono comunque in un certo senso collegate all’elevata improbabilità della violazione della seconda legge della termodinamica. Tale improbabilità dipende inoltre anche dall’elevato numero di particelle che costitutiscono il gas.

La formulazione attuale nei libri di testo – dovuta storicamente a Max Planck, così come la paternità nell’assegnazione del termine “costante di Boltzmann” – è che l’entropia vale (in una forma generalissima)

S = k \cdot lnW

con “k” costante universale, “ln” logaritmo e “W” il numero di stati microscopici compatibili con i vincoli macroscopici e che il secondo principio denota l’altissima probabilità di un sistema di raggiungere l’equilibrio, in quanto il numero di microstati associati allo stato finale di equilibrio è enormemente maggiore di quello relativo ad altri stati, chiamati atipici da alcuni fisici che stanno proseguendo anche oggi il lavoro di Boltzmann. Si parla in questo caso di comportamento tipico di un sistema.

Possiamo allora riformulare la freccia del tempo in questo modo: se all’interno di un sistema isolato – che ha un comportamento tipico – avviene un qualsiasi fenomeno irreversibile allora la sua entropia aumenta – a meno di piccolissime e rarissime fluttuazioni – e dunque il sistema stesso evolve dal passato (S iniziale al tempo iniziale) verso il futuro (S finale al tempo finale).

E possiamo avere la garanzia che tale formulazione è valida per un gas composto da numerosissime particelle (si pensi al numero di Avogadro), molto rarefatto e debolmente interagente (con urti binari), che passa da uno stato di non equilibrio (tutte le particelle disposte inizialmente in un angolo di un spazio vuoto isolato e di forma cubica) allo stato finale stabile di equilibrio (secondo la distribuzione delle velocità di Maxwell).

Abbiamo collegato, anche con ingredienti di statistica, la meccanica microscopica alla termodinamica macroscopica, mostrando come la freccia del tempo non sia solo un fenomeno banalmente osservabile dai nostri occhi, ma emerga anche da principi primi fondamentali – come la conservazione dell’energia e la dinamica di un sistema di corpi interagenti – che sono anche a fondamento della comprensione fisica dell’essere umano.

Nuovi percorsi relativi al teorema H di Boltzmann

Ultimamente ho riletto i miei appunti sul teorema H di Boltzmann (vedi il wiki sull’entropia #qui) presi dal libro “Meccanica Statistica” di Huang e anche con passaggi matematici presi dal libro “An introduction to Chaos in Nonequilibrium Statistical Mechanics” di Dorfman. Poi ho cercato online nuovo materiale affine a questo argomento e ho trovato in particolare:

– l’articolo di Maxwell dove ricava la distribuzione delle velocità per un gas che si trova in uno stato di equilibrio;

– l’articolo “Su due obiezioni ben note al teorema H di Boltzmann” di Paul e Tatiana Ehrenfest, trovato nei materiali divulgati da Vulpiani;

– l’articolo di Goldstein, Lebowitz, Tumulka, Zanghi “Long-Time Behavior of Macroscopic Quantum Systems: Commentary Accompanying the English Translation of John von Neumann’s 1929 Article on the Quantum Ergodic Theorem” (wiki sull’entropia #qui).