Crea sito

Significato matematico della quantità H e introduzione del calcolo delle probabilità

Nelle “Lezioni sulla Teoria dei Gas” di Boltzmann del 1898, tradotte da Rossani e a cura di Badino, possiamo trovare un importante lavoro su di un gas con volume unitario.

L’autore inizia parlando dei principi del calcolo delle probabilità, prendendo ad esempio un’urna contenente molte sfere nere e in ugual numero bianche e proponendo di fare 20 estrazioni puramente casuali, con reinserimento. La probabilità di estrarle tutte nere è la stessa di altre possibili estrazioni e il fatto che sia più probabile estrarne 10 bianche e 10 nere piuttosto che tutte nere dipende dal fatto che l’evento 10-10 può avvenire in molti più modi dell’evento 20-0. Se rapportiamo le due probabilità abbiamo 20!/(10!10!) che indica quante permutazioni possiamo fare dei termini della serie di 10 bianche e 10 nere, trattando le differenti sfere bianche e nere come identiche. Se aumentiamo i colori abbiamo la probabilità di estrarre “a” sfere di un certo colore, “b” di un altro, ecc. pari ad un numero (a+b+c+…)!/(a!b!c!…) di volte più grande di estrarre sfere di un solo colore. Ebbene:

l’evento che tutte le molecole in un gas abbiano esattamente la stessa velocità e direzione di moto non è affatto meno probabile dell’evento che ciascuna molecola abbia esattamente la velocità e direzione di moto che effettivamente ha in un particolare istante nel gas. Ma se confrontiamo il primo evento con l’evento che la distribuzione maxwelliana di velocità vale nel gas, troviamo che a quest’ultimo appartengono molte più configurazioni equiprobabili.

E poi Boltzmann procede a legare questa legge con il funzionale H del teorema omonimo, utilizzando la formula di approssimazione al continuo “p! = radice(2 pigreco p)(p/e)^p” con “e” base dei logaritmi naturali, dividendo lo spazio in cellette di volume omega e introducendo la funzione “Z” equivalente al numero calcolato prima (in grassetto). A questo punto l’autore afferma:

Il teorema […] che afferma che H decresce a causa delle collisioni, dice semplicemente che, per via delle collisioni, la distribuzione di velocità delle molecole del gas si avvicina progressivamente a quella più probabile, considerando lo stato molecolarmente disordinato, e in questo modo si introduce il calcolo delle probabilità.

E continua rispondendo alle questioni sulla reversibilità e, in sostanza, alla validità delle ipotesi di disordine molecolare che garantiscono la validità del teorema H.

Infine riflette sul numero grande ma comunque finito delle molecole per unità di volume e sui fenomeni le cui proprietà del gas non sono grandi rispetto al libero cammino medio, per poi dire:

Tutti gli altri fenomeni hanno luogo in spazi così grandi che si può costruire un elemento di volume per cui il moto visibile del gas può essere preso come differenziale che contiene ancora un grande numero di molecole. […] La legge di distribuzione delle velocità molecolari non è precisamente corretta, non essendo il numero di molecole matematicamente infinito. Lo svantaggio di abbandonare la supposta validità esatta delle equazioni differenziali idrodinamiche è tuttavia compensata da una maggiore chiarezza.

Possiamo dunque osservare con quale destrezza Boltzmann introduce argomenti statistici all’interno della meccanica, mantenendo da un lato una visione d’insieme e dall’altro lato un’estrema attenzione ai dettagli matematici.


Considerazione sulla legge matematica (a+b+c+…)!/(a!b!c!…). Siamo di fronte ad una applicazione della formula di Bernoulli (presumo Jakob, 1654-1705): si veda il video #qui per una trattazione didattica.

Approccio all’equilibrio termico da parte di un sistema macroscopico quantistico

Ho ritrovato Lebowitz cercando un suo articolo del 2009 realizzato con Goldstein, Mastrodonato, Tumulka e Zanghì (vedi #qui) e sono contento che il programma di ricerca di Boltzmann continui. L’abstract è il seguente:

We consider an isolated, macroscopic quantum system.

Let H be a micro-canonical “energy shell,” i.e., a subspace of the system’s Hilbert space spanned by the (finitely) many energy eigenstates with energies between E and E + delta E.

The thermal equilibrium macro-state at energy E corresponds to a subspace H_{eq} of H such that dimH_{eq}/dimH is close to 1.

We say that a system with state vector psi in H is in thermal equilibrium if psi is “close” to H_{eq}. We show that for “typical” Hamiltonians with given eigenvalues, all initial state vectors psi_0 evolve in such a way that psi_t is in thermal equilibrium for most times t.

This result is closely related to von Neumann’s quantum ergodic theorem of 1929.

Lattice Boltzmann con BGK e d2q9

Due paginette #qui per sapere come implementare l’equazione di Boltzmann (che già contiene le assunzioni di caos molecolare) nelle simulazioni numeriche (con approssimazione di Bhatnagar-Gross-Krook): reticolo bidimensionale con nove velocità discrete.

Abbiamo la fase di movimento delle distribuzioni di singola particella – relative ad ogni velocità e in ogni nodo del reticolo – e poi la fase di collisione, costruita in modo da avere rilassamento all’equilibrio locale verso una distribuzione di Maxwell-Boltzmann, anch’essa discretizzata usando delle regole che mantengono l’interpretazione probabilistica di tale distribuzione, l’isotropia dello spazio e l’invarianza galileiana delle velocità.

Lo schema è isotermo, dato che si considera in tutto il reticolo un valore costante di velocità del suono (relazionata alla temperatura del reticolo); il tempo di rilassamento all’equilibrio locale è relazionato alla viscosità cinematica (la si trova con analisi di Chapman-Enskog).

L’osservabile principale è la densità di particelle: per la sua computazione probabilmente (non ci ho messo le mani con un linguaggio di programmazione… se tu lettore vuoi farlo poi fammi sapere ;o) si deve:

  • far partire un ciclo temporale (che fissa il passo), all’interno del quale lanciamo un ciclo di nodi per calcolare lo streaming di ogni velocità (altro ciclo annidato);
  • poi rifacciamo partire un ciclo sui nodi e quindi sulle velocità, lavorando sulle collisioni;
  • alla fine di ogni calcolo delle distribuzioni (ad ogni nodo), computiamo la densità.

Avremo dunque una sequenza temporale del campo di densità, che possiamo alla fine disegnare usando diverse gradazioni di colore e dunque studiare l’evoluzione macroscopica del fluido oggetto di indagine.

Fonti: Rotenberg #qui (vid), Ubertini #qui (txt). Approfondimenti #qui (vid) e #qui (vid).

Classifichiamo le trasformazioni irreversibili

Ciao, ho ritrovato il bellissimo testo “Calore e Termodinamica” di Zemansky ed elenco di seguito i processi che presentano irreversibilità di vario tipo.

Irreversibilità meccanica esterna in condizioni isoterme

Il sistema non cambia il proprio stato termodinamico (da cui sia “DeltaU = 0” che “DeltaS = 0”, con “U” energia interna e “S” entropia) e interagisce isotermicamente con un serbatoio (visto come una porzione dell’ambiente che non modifica mai la propria temperatura “T”)  scambiando energia “W” in modalità lavoro (e siccome “DeltaU = 0” del sistema allora l’ambiente riceve energia “Q” pari a “W = Q”) e modificando in tal modo l’energia interna del serbatoio stesso e aumentandone l’entropia di un valore “Q / T”.

Applicazioni sono il moto irregolare di agitazione di un liquido viscoso, l’arresto di un liquido in vibrazione o rotazione, la deformazione anelastica di un solido, il passaggio di elettricità attraverso un resistore, l’isteresi magnetica di un materiale.

Irreversibilità meccanica esterna in condizioni adiabatiche

Il sistema interagisce con l’ambiente e dissipa adiabaticamente (“Q = 0”, quindi l’ambiente non cambia la propria entropia) l’energia “W” scambiata in modalità lavoro (si dice che l’ambiente “compie lavoro” sul sistema), aumentando la propria energia interna “U”. Se la trasformazione viene sostituita da una reversibile e isobara (con capacità termica “C”) che congiunga gli stessi stati allora il sistema aumenta la propria temperatura da “Ti” a “Tf” e la propria entropia “DeltaS = C log(Tf / Ti)” (per definizione di entropia di Clausius e per legge fondamentale della calorimetria e per integrazione di “C / T” in “dT”).

Applicazioni sono le stesse del caso precedente, ma in condizioni di isolamento termico.

Irreversibilità meccanica interna

Il sistema trasforma la propria energia interna in energia meccanica, la quale poi si trasforma nuovamente in energia interna, senza modificare lo stato dell’ambiente (che non cambia dunque la propria entropia).

Applicazioni sono l’espansione libera di un gas perfetto nel vuoto (vedi anche #qui), l’espansione strozzata di un gas che filtra attraverso un setto poroso, la rottura di un filo in tensione quando viene tagliato, lo scoppio di una bolla di sapone quando viene forata.

Irreversibilità termica esterna

Il sistema scambia energia “Q” in modalità calore, con l’ambiente, ma tali parti dell’universo termodinamico non si trovano in equilibrio termico tra loro, durante tale scambio.

Applicazioni sono la conduzione o radiazione di energia in modalità calore da un sistema all’ambiente circostante più freddo, la conduzione o radiazione del calore attraverso un sistema (il cui stato non cambia ed è dunque stazionario) da un serbatoio caldo “1” ad uno più freddo “2” (L’universo presenta un aumento di entropia pari a “Q / T2 – Q / T1”).

Irreversibilità chimica

Se nell’universo termodinamico abbiamo una variazione spontanea di struttura interna, composizione chimica, densità e altre grandezze caratteristiche.

Applicazioni sono le reazioni chimiche, la diffusione di due gas ideali inerti differenti (se abbiamo una mole di ogni gas che raddoppia il proprio volume, allora considerando due espansioni libere troviamo che l’universo aumenta la propria entropia di un valore “2R log2”, con “R” costante dei gas perfetti), una miscela di alcool e acqua, il congelamento di un liquido soprafuso, la condensazione di un vapor soprasaturo, la soluzione di un solido in acqua, l’osmosi.

Uno strumento che misura l’entropia

Grazie alla spiegazione di Atkins in “Il secondo Principio” #qui riprodotta possiamo definire operativamente l’entropia – alla Clausius – e rendere questa grandezza fisica più vicina al nostro vivere quotidiano. Come si costruisce un entropimetro? Con un termometro, una bilancia, una tabella dei calori specifici e infine un microprocessore che esegua calcoli e fornisca l’uscita su un display.

La propagazione dell’energia in modalità calore, nella conduzione

Finalmente #qui due belle paginette che collegano legge di Fourier e entropia di un sistema chiuso che viene mantenuto in uno stato stazionario. Leggete e gustatevi il processo intrinsecamente irreversibile della conduzione termica, vera e propria definizione di quella forma di transito di energia quale è il calore. Le difficoltà matematiche le ho rese al minimo (tutta algebra) e ho dichiarato bene i punti concettuali associati a passaggi matematici difficili. Sul finale un utile link ad una animazione che descrive l’approccio all’equilibrio (lo facciamo rendendo isolato il sistema e interrompendo dunque lo stato stazionario), in modo da vedere la freccia del tempo in azione.

Corrente di entropia, conduzione termica e ambiguità sulla potenza dissipata

Ho trovato #qui un lavoro del liceo cantonale di Locarno (D’Anna) ove si parla di conduzione termica utilizzando i concetti di “corrente di energia” e di “corrente di entropia” per indicare il flusso di energia e di entropia nell’unità di tempo, tra due sistemi che interagiscono termicamente. Il rapporto tra essi è proprio la temperatura assoluta alla quale avviene lo scambio, per cui abbiamo    I_{E} = T\cdot I_{S}   .

Si parla inizialmente della legge di Fourier costruendola in questo modo: la differenza di temperatura ai capi del conduttore è proporzionale alla corrente di energia, in base alla “resistenza termica” R_{term} = \bigtriangleup T / I_{E}  la quale è direttamente proporzionale alla lunghezza del conduttore e inversamente proporzionale alla conducibilità termica e alla sezione del conduttore.

Poi ci si sofferma alla situazione di stato stazionario per cui la corrente di energia entrante è uguale a quella uscente. Tuttavia le correnti di entropia sono differenti, in quanto l’interazione termica tra conduttore e ambiente avviene a temperature differenti (l’ambiente è suddiviso infatti in due sistemi non interagenti i quali mantengono la loro temperatura costante nel tempo). Nello specifico se abbiamo T_{1}> T_{2} allora vale I_{S_{1}}< I_{S_{2}} il cui significato è questo: durante la propagazione dell’energia attraverso il conduttore viene prodotta entropia e questa è la dimostrazione che la conduzione termica è un processo irreversibile.

Una prima domanda interessante è la seguente: dove viene prodotta l’entropia? Il tasso di produzione di entropia è la somma di tutti i contributi in ogni tratto spaziale del conduttore ed è dato da \pi_{S}=I_{S_{2}}- I_{S_{1}} ; vale infatti l’additività della produzione di entropia.

Una seconda domanda invece mi ha messo molto in discussione: a quale temperatura viene prodotta entropia? L’autore risponde con T_{2} proponendo la seguente ottima immagine riassuntiva che indica anche, secondo definizioni precedenti, la potenza termica  P_{term}=I_{S}} \cdot \bigtriangleup T   e la potenza dissipata P_{diss}=\pi_{S} \cdot  T

fdt-locarnoIl problema però dei seguenti passaggi algebrici fdt-locarno2è che nel terzo passaggio viene scelto senza giustificare di raccogliere T_{2} , quando si potrebbe raccogliere l’altra temperatura. Questo significa che si possono avere diverse potenze dissipate, ad esempio \pi_{S} \cdot T_{2}  oppure \pi_{S} \cdot T_{1} . Ho trovato ad esempio #qui (Liberto) un articolo che preferisce la seconda delle due formule appena citate. Come mai? Se si considera la potenza dissipata come il lavoro che avremmo potuto eseguire con una macchina termica reversibile, abbiamo due situazioni: o prendiamo calore Q da T_{1} e cediamo Q \cdot T_{2}/T_{1} a T_{2}, o prendiamo Q \cdot T_{1}/T_{2} da T_{1} e cediamo Q a T_{2} . Nel primo caso abbiamo la prima potenza dissipata, nel secondo caso la seconda (i calcoli sono semplici). Ebbene, siccome il calore Q nell’unità di tempo – cioè la corrente di energia – è uguale in entrata e in uscita, l’unico elemento di preferenza è la quantità di potenza dissipata. Allora è possibile preferire la maggiore dissipazione e quindi rispondere che l’entropia in un certo tratto di conduttore (all’interno del quale avviene conduzione termica) viene prodotta alla temperatura maggiore tra le due che si trovano ai capi del tratto stesso.

Equazione di Boltzmann, limite di Grad e teorema di Landford

Ho già scritto in precedenza un post sull’eredità di Boltzmann ma non ho ancora esplicitato bene il lavoro del secolo scorso che ha consolidato le intuizioni sull’emergenza della freccia del tempo dal microscopico al macroscopico. Mi sto ovviamente riferendo alla dimostrazione rigorosa, almeno per gas perfetti molto rarefatti, del teorema H.

Prendiamo in prestito alcune parole di Vulpiani che ho trovato #qui:

fdt-vulpianiHo trovato anche un articolo di Lanford del 1968 #qui – già citato in un testo di Gallavotti – sulla meccanica classica di sistemi unidimensionali composti da infinite particelle. La difficoltà centrale del suo teorema è provare che le equazioni differenziali del moto non posso portare in tempi finiti infinite particelle in una regione di spazio finita. Tale teorema ha permesso di dare ulteriore solidità alla validità del teorema H nel limite di Boltzmann-Grad, almeno per tempi brevi.

Per approfondimenti presumo – non l’ho ancora letto – sia utile citare il testo di Cercignani, Illner e Pulvirenti “The Mathematical Theory of Dilute Gases” del 1994.

Nel limite di Grad e per tempi brevi abbiamo dunque che se vale l’ipotesi di Boltzmann di “indipendenza delle distribuzioni” al tempo iniziale, tale condizione sarà valida sicuramente anche per tutti i tempi successivi. Pare dunque che la funzione H(t) possa, in questo limite, essere considerata veramente decrescente nel tempo, senza alcuna presenza di picchi locali alla Huang. Come se le fluttuazioni di H(t) e gli effetti della reversibilità temporale della dinamica microscopica non si “vedessero” più nel caso di infinite particelle puntiformi per un gas perfetto molto rarefatto. Sappiamo che queste fluttuazioni ci sono – in quanto il gas perfetto è composto da un numero finito, seppur elevatissimo, di particelle – ma il comportamento tipico macroscopico di questo sistema che realizza una trasformazione irreversibile è “visto” senza alcuna contraddizione nella teoria. Una funzione di distribuzione non di equilibrio evolve nel tempo verso la distribuzione di equilibrio e l’equazione di Boltzmann descrive al 100% tale evoluzione.

Comunque il percorso per comprendere appieno il teorema H è appena iniziato.

Propagazione del calore in un gas perfetto

Grazie al testo “Chimica Fisica” dell’Atkins, si veda #qui per i miei appunti, possiamo giustificare la legge macroscopica di conduzione termica a partire dalla teoria cinetica e anche trovare un legame tra grandezze microscopiche e coefficiente di conducibilità termica.

Come si può vedere nella trattazione dell’Atkins vi è un punto in cui si utilizza la distribuzione di equilibrio di Maxwell-Boltzmann (per una componente della velocità). Questo presuppone la validità delle ipotesi di equilibrio locale. Il flusso di energia in modalità calore è prodotto inoltre da un gradiente termico non troppo elavato (che giustifica l’uso dello sviluppo al primo ordine della temperatura rispetto allo spazio, nel teorema di equipartizione dell’energia).

Equilibrio locale, produzione di entropia e interazione termica

Dal testo “Non-Equilibrium Thermodynamics” di De Groot e Mazur ho tracciato #qui alcuni appunti sulla produzione di entropia nel fenomeno di conduzione del calore, governato dalla ben nota legge di Fourier e trascurando effetti incrociati governati dalle relazioni di reciprocità di Onsager.

Il sistema si trova nella regione lineare della termodinamica del non-equilibrio, dove valgono equazioni fenomenologiche per cui i flussi – nel nostro caso il calore che si propaga – sono proporzionali alle forze termodinamiche – nel nostro caso il gradiente termico – e la minima produzione di entropia porta all’equilibrio per sistemi isolati oppure allo stato stazionario per sistemi chiusi. Pare dunque che il principio di entropia, e con esso la freccia del tempo, si possa ulterioremente riformulare così: “In presenza di deboli forze termodinamiche un sistema qualsiasi (isolato o non isolato) nel tempo tende spontaneamente a minimizzare la propria produzione di entropia”.

Anche nel  testo “Modern Termodynamics” di Prigogine è presente questa trattazione. In quel libro si sottolinea ulteriormente che la formulazione locale di tutte queste leggi presuppone la validità delle ipotesi di equilibrio locale, per cui è possibile considerare volumetti puntiformi composti ancora da molte particelle che passano rapidamente da uno stato di equilibrio all’altro. I tempi per la termalizzazione di questi volumetti, secondo il progetto di Boltzmann di emergenza della freccia del tempo dal microscopico al macroscopico, sono considerati molto brevi rispetti ai tempi di rilassamento all’equilibrio studiati in questo approccio. Si presuppone dunque che, ad ogni istante di tempo e in ogni punto del sistema, ogni volumetto presenti una distribuzione maxwelliana delle velocità. Possiamo dunque considerare questa trattazione – pienamente macroscopica – complementare al lavoro di Boltzmann, il quale è più fondativo (si veda il teorema H) ma meno fenomenologico (si pensi alla vastità di fenomeni descritti in forma unitaria dalla termodinamica del non-equilibrio).

Costruiamo un orologio termodinamico

In base al modello proposto #qui di interazione termica tra due gas perfetti che sono praticamente identici a meno della loro temperatura iniziale, possiamo seguire direttamente la freccia del tempo grazie al tempo di rilassamento del sistema che da uno stato di non-equilibrio passa ad uno stato di equilibrio.

Attenzione! L’unico passaggio difficile da capire è quello riguardante l’aumento di entropia in quanto utilizza il calcolo integrale della funzione “1/T” , che produce il logaritmo in base naturale di T, cioè “lnT”. Se accetti questo aspetto – che comprenderai alla fine della classe quinta – tutto il resto è accessibile alle tue conoscenze di termologia, termodinamica e ai tuoi calcoli di matematica.

E se non ti soddisfa il modellino con solo 2 sottosistemi, ecco #qui l’evoluzione all’equilibrio di 4 sottosistemi oppure di 6 sottosistemi, preparati con cura in stati iniziali di non-equilibrio e poi lasciati evolvere spontaneamente verso l’equilibrio. Meraviglie dell’interazione termica ;o)

Ipotesi di caos molecolare

Sia dato un gas ideale molto rarefatto in uno stato di non-equilibrio termico, cioè un sistema di moltissime particelle debolmente interagenti che si muovono in modo caotico e che non presentano inizialmente una distribuzione delle velocità uguale a quella di equilibrio. Se questo sistema isolato viene lasciato evolvere l’equazione di stato prevede che dopo un certo tempo verrà raggiunto l’equilibrio la cui temperatura è legata ai valori di pressione, volume e numero di moli del gas stesso. Dal punto di vista microscopico avremo che la distribuzione iniziale delle velocità raggiungerà quella di Maxwell-Boltzmann e rimarrà tale nei tempi successivi.

Se definiamo l’entropia del gas allo stato iniziale come la somma delle entropie di equilibrio di numerosi sottosistemi in equilibrio locale, essa sarà sempre minore dell’entropia nello stato di equilibrio finale, grazie al secondo principio della termodinamica riformulato in chiave moderna da De Groot e Mazur. Analogamente in virtù del teorema H di Boltzmann esiste un funzionale che diminuisce nel tempo sotto ipotesi di caos molecolare e tale funzionale all’equilibrio è proporzionale all’opposto dell’entropia.

Ora sorge una domanda: come possiamo definire con precisione le ipotesi di caos molecolare? Sono ingredienti essenziali per giustificare l’emergenza della freccia del tempo dall’approccio microscopico a quello macroscopico, quindi non possiamo mantenere nel vago la definizione di caos molecolare.

– Boltzmann nel 1872 scrive: “Vogliamo accettare solo due limitazioni che stanno nella natura delle cose. E’ ben chiaro che, dopo il trascorrere di un tempo molto lungo, per la direzione di ogni molecola ogni direzione nello spazio sarà ugualmente probabile. Se perciò si tratta semplicemente di trovare la distribuzione delle velocità prodotta dopo un lungo tempo, possiamo assumere che già dall’inizio ogni direzione sia stata equiprobabile. Si può ridurre il caso più generale a nessun’altra distribuzione di stato che questa specifica. Sia questa la prima limitazione che vogliamo porre. La seconda sia che la distribuzione di velocità sia uniforme [nello spazio] già dall’inizio […] [per cui ad esempio] non vi sono a destra [particelle] più veloci e a sinistra più lente […]. E’ chiaro che entrambe le condizioni saranno soddisfatte anche per tutto il tempo, ossia che lo stato del gas al tempo  t  è completamente determinato dalla funzione  f(x,t)  “.

Boltzmann si riferisce a “f” per indicare la distribuzione e a “x” per indicare l’energia cinetica di singola particella (da cui si può ricavare la velocità, ovviamente) e ricava una equazione integro-differenziale e non lineare che permette di calcolare  f(x,t)  a partire da  f(x,0). Le uniche responsabili della variazione della distribuzione sono le collisioni, dovute a forze centrali e dipendenti dalla sola distanza reciproca tra due particelle. In merito a tali interazioni Boltzmann definisce una funzione  ” \psi ” che in virtù dell’ipotesi sul numero di collisione (Stosszahlansatz) soddisfa questa regola (x e x’ indicano le energie cinetiche prima della collisione, mentre \xi indica l’energia cinetica della prima particella dopo la collisione):   \sqrt{xx'}\psi(x,x',\xi)=\sqrt{\xi(x+x'-\xi)}\psi(\xi,x-x'-\xi,x)  . E’ cruciale affermare che senza questa ipotesi non potremmo avere l’equazione di Boltzmann nella forma utilizzata da lui stesso nel teorema H e dunque non potremmo dimostrare che “H(t)” diminuisce nel tempo al variare della distribuzione “f(x,t)” fino a raggiungere la distribuzione di equilibrio, per poi rimanere costante nel tempo.

– Huang nel 1963 definisce una funzione di correlazione “F” e afferma, sulla linea di lavoro di Boltzmann, che “gli impulsi di due particelle nell’elemento di volume sono scorrelati, in tal modo la probabilità di trovarli simultaneamente è uguale al prodotto delle probabilità di trovarli singolarmente. Questa è conosciuta come l’assunzione del caos molecolare”.

Tuttavia viene fatto un passo avanti: “L’evoluzione nel tempo di H è determinata dalla evoluzione nel tempo della distribuzione f, che in generale non soddisfa l’equazione del trasporto di Boltzmann. Essa soddisfa tale equazione solo nell’istante in cui diventa valida l’assunzione di caos molecolare. Il teorema H afferma che se ad un dato istante  t   lo stato del gas soddisfa l’assunzione del caos molecolare, allora all’istante t+\epsilon  (con incremento tendente a zero) o dH/dt  \leq  0 oppure dH/dt =  0 ma solo nel caso in cui la distribuzione sia quella di Maxwell-Boltzmann […]. [L’assunzione di caos molecolare] non ha niente a che vedere con la forma della funzione di distribuzione, cosicché uno stato del gas con una certa funzione di distribuzione può oppure no soddisfare l’assunzione del caos molecolare”.

Huang poi dimostra (utilizzando l’invarianza temporale delle equazioni del moto) che quando il gas è in uno stato di caos molecolare allora H è in un picco locale e giunge a riformulare il teorema H in questo modo: “se adesso c’è caos molecolare, allora al prossimo istante dH/dt  \leq  0 ; se nel prossimo istante ci sarà caos molecolare, allora adesso vale dH/dt \geq   0 “. Viene dunque affermato che la funzione “derivata di H rispetto al tempo” non è necessariamente una funzione continua nel tempo, potendo cambiare improvvisamente per gli urti molecolari. Possiamo quindi comprendere come H subisca numerose e piccole fluttuazioni nel tempo (con rarissimi casi di fluttuazioni elevate), la sequenza temporale degli stati di caos molecolare sia casuale e dunque che l’equazione del trasporto di Boltzmann sia da considerare valida in un senso statistico (come ho accennato nel mio post precedente si veda in merito il lavoro di Kac sulla costruzione – a partire dall’equazione di Boltzmann – di una master equation; vengono riviste le ipotesi di caos molecolare utilizzando un approccio probabilistico). Possiamo infine immaginarci il “tendere all’equilibrio” con il seguente grafico, proposto dallo stesso Huang.

fdt-huang

Il modello di Kac per simulare l’approccio all’equilibrio di un gas, secondo il piano di Boltzmann

Ho finalmente tra le mani le due memorie di Boltzmann del 1872 e del 1877, tradotte in italiano dall’editore Melquìades nel libro “Fisica e probabilità”, che ho letto a grandi linee (fantastiche! La prima volta che si parla del teorema H, il fondamento del legame micro-macro della freccia del tempo!) e che rileggerò con attenzione.

Inoltre ho ritrovato #qui una applet fatta da Wolfgang Christian, Dan Schroeder e Anne Cox con EJS (easy java simulations, un ottimo software didattico creato da Francisco Esquembre) che tramite il “modello di Kac” simula l’approccio all’equilibrio lavorando sulla funzione di distribuzione dipendente dal solo modulo della velocità di singola particella del gas ideale, come lo stesso Boltzmann fece nel suo lavoro.

Allora mi sono interessato al lavoro di Kac, che non conoscevo, e ho trovato #qui 27 pagine di PDF dal titolo “Foundations of KineticTheory”. L’approccio è di costruire una master equation lineare (una equazione di Kolmogorov basata su un processo di Markov) che incorpori le assunzioni di caos molecolare (termine che dovrò prima o poi specificare con attenzione) e ne aggiunga altre (per semplificare la difficile equazione non lineare integro-differenziale i Boltzmann senza perderne le potenzialità che ha nella descrizione della freccia del tempo). Il teorema basilare che propone Kac è che certe funzioni di densità di probabilità, aventi una cosiddetta “proprietà di Boltzmann”, mantengano nel tempo tale proprietà. Ma dovrò approfondire anche questi aspetti, se avrò tempo.

Cosa possiamo dire dell’espansione, spontanea e irreversibile, di un gas perfetto?

– Fisica in evoluzione 1 —> Parodi, Ostili, Onori ne parlano inizialmente considerando calore e lavoro nulli (per cui non vi è nessuna variazione di energia interna, in virtù del principio di conservazione dell’energia) e l’osservazione che il processo è isotermo, dunque come una prova ulteriore che l’energia interna dipende dalla sola temperatura; infine calcolano l’aumento di entropia per un raddoppiamento di volume di una mole di gas, utilizzando l’escamotage che l’entropia è funzione di stato e dunque scegliendo l’espansione isoterma reversibile che unisca gli stessi stati iniziale e finale.

\Delta S = nRln \frac{V_{f}}{{V_{i}}

Dalla formula appena scritta (che si trova usando l’equazione di stato dei gas perfetti e un calcolo difficile che scoprirai alla fine della quinta, il calcolo integrale) si ricava una variazione pari a circa 5,76 J/K. Siccome l’ambiente non assorbe calore la sua entropia rimane costante e dunque l’entropia dell’universo aumenta della stessa quantità di quella del sistema.

– Fisica e realtà.blu 1 —> Romeni ne parla nella parte di teoria in modo simile a quanto detto finora e poi nella sezione esercizi, quando tratta l’adiabatica e poi quando tratta l’entropia, sia con approccio microscopico che macroscopico. Va detto che nell’espansione isoterma libera non vi sono trasferimenti di calore e dunque è anche adiabatica. Anzi, negli esperimenti le espansioni rapide sono considerate adiabatiche – il calore non fa in tempo ad essere assorbito – e solo per il fatto che si approssima il gas reale a un gas perfetto tale trasformazione è anche isoterma. Infatti lo stesso autore parla dell’effetto Joule-Thomson di raffreddamento di un gas reale per espansioni adiabatiche (le particelle allontanandosi tra loro compiono lavoro contro le forze attrattive che si esercitano tra di esse, a spese dunque dell’energia cinetica media e quindi anche della temperatura).

Un esercizio proposto dall’autore pare molto delicato: si propongono le due trasformazioni seguenti: una espansione adiabatica irreversibile di un gas perfetto che va a occupare uno spazio vuoto e poi una compressione adiabatica reversibile che riporti il gas al volume iniziale (per cui si presuppone che tale spazio vuoto alla fine sia occupato dall’ambiente). Come varia globalmente l’entropia del sistema? L’autore come ingredienti di soluzione usa sia la formula per l’adiabatica reversibile (“T V alla gamma meno 1 rimane costante”) sia questa formula, senza però giustificarla in alcun modo:

\Delta S_{tot} =\Delta S_{gas} +\Delta S_{amb}=nRln\frac{V_{f}}{V_{i}}-nC_{V}ln\frac{T_{f}}{T_{i}}

Provando a interpretare i pedici: “gas” per indicare l’espansione irreversibile del sistema, “amb” per indicare il contributo dell’ambiente alla variazione di entropia del sistema (ecco perché c’è un meno) il quale (ecco perché c’è il numero di moli del sistema) si riscalda (ecco perché ci sono le temperature del sistema). In conclusione, accettando il calcolo dell’autore, abbiamo una ulteriore formula di flusso di entropia tra sistema (gas perfetto) e ambiente per compressioni adiabatiche reversibili (si ricorda che globalmente l’universo rimane isoentropico):

\Delta S_{adiabatica-reversibile}=-nC_{V}ln\frac{T_{f}}{T_{i}}

Nell’esercizio studiato l’universo globalmente aumenta del valore calcolato con la prima espansione irreversibile, mentre l’aumento globale di entropia netto nel sistema è minore rispetto a quello dell’universo. In parole povere si è prodotta più entropia nel sistema durante l’espansione irreversibile, di quanta entropia sia fluita nel sistema durante la compressione reversibile.

– Fisica! —> Caforio, Ferilli, oltre a trattare la teoria  come si è già detto, utilizzano per il singolo sistema (brutalmente), dichiarando che si ricava dal calcolo integrale, la formula

\Delta S=nC_{V}ln\frac{T_{f}}{T_{i}}+nRln\frac{V_{f}}{V_{i}}

e fanno anche un esempio dove si triplica il volume e si dimezza la pressione, arrivando – grazie anche all’equazione di stato dei gas perfetti – alla soluzione. Tuttavia siccome tale trasformazione non risulta essere isoterma, non possiamo considerarla espansione libera.

– Nuova Physica 2 —> Caforio, Ferilli anche in questo vecchio libro di testo ne parlano in modo simile a quanto detto finora, e inoltre grazie all’equazione di stato (o al suo caso particolare che è la legge di Boyle) trovano

\Delta S = nRln \frac{p_{i}}{{p_{f}}

che è l’aumento entropico in base ai valori di pressione del gas, che diminuisce durante  l’espansione;

– Fisica.blu —> Cutnell, Johnson non ne parlano nella parte teorica ma propongono un esercizio per riflettere sul fenomeno;

– Eureka! 2 —> Romoli, Albertini non ne parlano;

– Fisica per moduli 2 —> Ruffo non ne parla;

– Il linguaggio della fisica —> Parodi, Ostili, Onori non ne parlano;

– Le parole della fisica 2 —> Mandolini ne parla per argomentare l’interpretazione statistica del secondo principio e associa tale fenomeno alla freccia del tempo;

– Invito alla fisica 2 —> Tipler ne parla come nel caso precedente;

– La fisica di Amaldi 2 —> Amaldi non ne parla.

L’entropia come misura del grado di disordine

Seguendo l’eccezionale chiarezza dell’Atkins nel suo libro “Chimica Fisica” possiamo mostrare come sia l’approccio macroscopico che quello microscopico siano complementari per la descrizione dei fenomeni fisici. “La definizione termodinamica di entropia si concentra sulla variazione di entropia dS che si verifica per effetto di una trasformazione fisica o chimica… La definizione si fonda sull’idea che si possa dedurre il cambiamento del grado di dispersione caotica dell’energia dalla quantità di energia trasferita sotto forma di calore nel corso del processo… Il trasferimento dell’energia in forma termica sfrutta il moto caotico degli atomi dell’ambiente. Il trasferimento di energia sotto forma di lavoro, che sfrutta il movimento uniforme degli atomi dell’ambiente, non altera il grado di disordine, per cui non ne modifica l’entropia”. Poi l’autore distingue l’entropia totale in due contributi infinitesimi

dS_{tot} = dS_{sistema} + dS_{ambiente}

e considera l’ambiente come un serbatoio a temperatura costante. La prima argomentazione è che dS dell’ambiente è direttamente proporzionale al calore che il serbatoio assorbe (magari in conseguenza di un peso in caduta e un generatore con elemento riscaldante). Perché? Per il fatto che tanto più calore sarà trasferito al serbatoio tanto maggiore sarà l’agitazione termica suscitata in esso e quindi tanto maggiore la dispersione di energia che vi ha luogo. La seconda argomentazione è che dS dell’ambiente è inversamente proporzionale alla temperatura dello stesso. Perché? Dobbiamo ora affidarci al secondo principio nell’enunciazione di Clausius – l’energia tende spontaneamente a fluire dai corpi più caldi ai corpi più freddi – e constatare quindi che una data quantità di energia che si accumuli a temperatura elevata presenta meno entropia della stessa quantità di energia accumulata a temperatura inferiore.

Abbiamo una interpretazione molecolare per questa ultima argomentazione. “Le molecole di un sistema a temperatura elevata sono fortemente disorganizzate, sia dal punto di vista della loro ubicazione, sia da quello dell’occupazione degli stati energetici… ad esse accessibili. Una piccola aggiunta di energia farà aumentare relativamente di poco il disordine, nello stesso senso in cui sarebbe difficile accorgersi di uno starnuto in una strada animata. Al contrario, le molecole di un sistema a bassa temperatura hanno accesso a un numero di stati energetici di gran lunga minore… e il trasferimento della stessa quantità di energia in forma di calore avrebbe effetti pronunciati sul grado di disordine; questa volta sarebbe come se lo starnuto esplodesse nel silenzio di una biblioteca”.

Da tutto ciò possiamo definire

dS_{ambiente}=\frac{\delta Q}{{T_{ambiente}}}

che è uguale alla definizione di entropia di Clausius nel caso di equilibrio termico tra ambiente e sistema e per trasformazioni dell’ambiente che reversibilmente restituiscono il sistema al proprio stato iniziale, per cui

-dS_{sistema}+\frac{\delta Q}{{T_{ambiente}}}=0

La teoria cinetica e l’emergenza della freccia del tempo

Seguendo sempre il testo di Segré troviamo un elenco sterminato di persone lungo la storia della teoria cinetica: Bernoulli (1738), Avogadro (1811), Herapath (1820) e Waterston (1851), Rayleigh, Kroenig (1822-1879), ancora Clausius (1857), Maxwell (1859, 1860, 1867), Boltzmann (1866, 1871, 1872, 1877), Zermelo, Loschmidt, Watson (1876), Liouville, Cagniard (1822), Andrews, Cailletet, Pictet, Deville, Wroblewski, Olzewski, Dewar, Onnes (1908), van der Waals (1873), Gibbs, Helmholtz, Planck, Einstein.

Vediamo perché la teoria cinetica, in particolare con il lavoro di Clausius, Maxwell ma soprattutto Boltzmann, giustifica il secondo principio della termodinamica e dunque riformuliamo adeguatamente la freccia del tempo.

Nel 1866 Boltzmann trovò un risultato valido però solo per processi reversibili, e nel 1871 anche Clausius, indipendentemente. Nel 1867 Maxwell cercò di dare una prova rigorosa della distribuzione delle velocità molecolari di un gas in equilibrio, scoperta nel 1859; inoltre fu proprio Maxwell a intuire la natura statistica del secondo principio della termodinamica e il passaggio dunque dall’impossibilità di alcuni fenomeni (secondo la formulazione di Clausius o di Kelvin) ad una altissima improbabilità che tali fenomeni si osservino.

Ma nel 1871 e 1872 abbiamo il grande passo dovuto a Boltzmann che trovò come cambia la distribuzione delle velocità di un gas passando attraverso stati di non-equilbrio e raggiungendo l’equilibrio (grazie alla sua equazione del trasporto il cui studio è ancora attuale). L’ingrediente essenziale sono gli urti tra le molecole e quella che è definita al giorno d’oggi l’ipotesi di caos molecolare.

Ma non è finita qui. Boltzmann formulò il famoso teorema H definendo questa grandezza fisica (che altri non è che l’opposto dell’entropia definita da Clausius, divisa per la costante di Boltzmann!) su basi microscopiche e dimostrando, sempre sotto ipotesi di caos molecolare, che H diminuisce nel tempo durante il passaggio di un gas da stati di non-equilibrio allo stato finale di equilibrio, regolato dalla distribuzione di Maxwell delle velocità. Infine il sistema all’equilibrio mantiene costante nel tempo il suo valore di H. In formule (il simbolo dopo l’uguale indica un integrale, è una somma di infiniti addendi, comunque più avanti trovi una formula più semplice per l’entropia S)

teoremaH

Boltzmann migliorò il suo lavoro nel 1877, in risposta a obiezioni quali il paradosso di reversibilità e il paradosso di ricorrenza. Da queste discussioni emerse chiaramente che il valore di H diminuisce o rimane costante solo trascurando sue piccole fluttuazioni che sono comunque in un certo senso collegate all’elevata improbabilità della violazione della seconda legge della termodinamica. Tale improbabilità dipende inoltre anche dall’elevato numero di particelle che costitutiscono il gas.

La formulazione attuale nei libri di testo – dovuta storicamente a Max Planck, così come la paternità nell’assegnazione del termine “costante di Boltzmann” – è che l’entropia vale (in una forma generalissima)

S = k \cdot lnW

con “k” costante universale, “ln” logaritmo e “W” il numero di stati microscopici compatibili con i vincoli macroscopici e che il secondo principio denota l’altissima probabilità di un sistema di raggiungere l’equilibrio, in quanto il numero di microstati associati allo stato finale di equilibrio è enormemente maggiore di quello relativo ad altri stati, chiamati atipici da alcuni fisici che stanno proseguendo anche oggi il lavoro di Boltzmann. Si parla in questo caso di comportamento tipico di un sistema.

Possiamo allora riformulare la freccia del tempo in questo modo: se all’interno di un sistema isolato – che ha un comportamento tipico – avviene un qualsiasi fenomeno irreversibile allora la sua entropia aumenta – a meno di piccolissime e rarissime fluttuazioni – e dunque il sistema stesso evolve dal passato (S iniziale al tempo iniziale) verso il futuro (S finale al tempo finale).

E possiamo avere la garanzia che tale formulazione è valida per un gas composto da numerosissime particelle (si pensi al numero di Avogadro), molto rarefatto e debolmente interagente (con urti binari), che passa da uno stato di non equilibrio (tutte le particelle disposte inizialmente in un angolo di un spazio vuoto isolato e di forma cubica) allo stato finale stabile di equilibrio (secondo la distribuzione delle velocità di Maxwell).

Abbiamo collegato, anche con ingredienti di statistica, la meccanica microscopica alla termodinamica macroscopica, mostrando come la freccia del tempo non sia solo un fenomeno banalmente osservabile dai nostri occhi, ma emerga anche da principi primi fondamentali – come la conservazione dell’energia e la dinamica di un sistema di corpi interagenti – che sono anche a fondamento della comprensione fisica dell’essere umano.

Irreversibilità in termodinamica e formulazione della freccia del tempo

Dal libro “Personaggi e scoperte nella fisica classica” di Segré possiamo leggere le parole di Carnot, quando intorno al 1824 descrive il ciclo reversibile di una macchina termica: “tutte le operazioni su descritte possono essere eseguite in un senso o nel senso inverso”. Si riferisce alle famose espansioni o compressioni isoterme (con scambi di energia in modalità calore Q1 e Q2 tra sistema e serbatoi con temperature T1 e T2) o adiabatiche (per il passaggio del sistema da temperatura T1 a T2 e viceversa) che sono ben descritte sui libri di scuola. In questo caso non abbiamo freccia del tempo. Ma… per processi irreversibili?

Clausius nel 1850 (“Sulla forza motrice del calore e sulle leggi che da essa si possono ricavare per la teoria del calore”) formulò così il secondo principio della termodinamica: “il calore di per se stesso non può passare da un corpo freddo a uno caldo” (va intesa “l’energia in modalità calore”) e andò oltre, dimostrando una importante disuguaglianza e definendo la grandezza fisica entropia “S” (nel 1865, anche se il concetto lo aveva già elaborato fin dal 1851), funzione dello stato di equilibrio del sistema. La variazione di entropia nell’universo è nulla se all’interno di esso si realizza un ciclo reversibile di Carnot, mentre se avviene anche un minimo fenomeno irreversibile durante il ciclo della macchina termica, si ha che

\Delta S^{universo}_{irreversibile} = \frac{Q_{1}}{T_{1}}-\frac{Q_{2}}{T_{2}}>0

Clausius poi formulò tale scoperta in modo conciso ed estendola a qualunque sistema fisico: “l’entropia dell’universo tende a un massimo”.

Prima di concludere citiamo la formulazione equivalente del secondo principio, dovuta a Thomson, denominato Lord Kelvin: “è impossibile, per mezzo di agenti materiali inanimati, derivare un effetto meccanico da una qualsiasi porzione di materia raffreddandola al di sotto della temperatura del più freddo tra i corpi circostanti”.

Grazie all’entropia definita come funzione di stato di equilibrio e al secondo principio espresso come impossibilità che si realizzino certi fenomeni possiamo finalmente formulare con assoluta chiarezza la freccia del tempo in fisica: se all’interno di un sistema isolato avviene un qualsiasi fenomeno irreversibile allora la sua entropia aumenta e dunque il sistema stesso evolve da un equilibrio passato (S iniziale al tempo iniziale) verso un equilibrio futuro (S finale al tempo finale); in formula

\frac{\Delta S}{\Delta t}>0

E per stati di non-equilibrio? L’entropia è ancora definita? Si potrà ancora formulare la freccia del tempo? E su quali basi microscopiche emergerà la freccia del tempo qui descritta secondo una teoria macroscopica? Vedremo…

L’eredità di Boltzmann continua…

Consiglio #qui la lettura del trattatello di Meccanica Statistica (Roma 1994) di Giovanni Gallavotti. In particolare questa scoperta che non conoscevo: è stato formulato il teorema di Lanford sulla congettura di Grad il quale conferma con rigore matematico, almeno per tempi brevi, che la reversibilità (con i suoi tempi di ricorrenza) non è in contraddizione con l’irreversibilità. In particolare non vi è alcuna incompatibilità tra equazione di Boltzmann (grazie alla quale si ricava il teorema H) e equazioni di Hamilton (che descrivono la dinamica microscopica).

Cercando il lavoro di Lanford sono incappato in questa pagina di storia della teoria cinetica #qui, in linea anche con il libro di Segrè che sto leggendo.

 

Chi ha definito la grandezza fisica entropia per la prima volta?

Il fatto che alcuni fenomeni fisici presentano una direzione preferenziale nel tempo viene spiegato grazie alla definizione di entropia ad opera di Clausius (puoi leggere #qui il suo testo “The Mechanical Theory of Heat” del 1867) e al suo teorema che riformula il secondo principio della termodinamica. Il lavoro di Clausius risulta essere fondamentale per giungere alla formulazione dell’entropia. Questa grandezza termodinamica, nel caso caratterizzi un sistema isolato all’interno del quale avviene un processo irreversibile (come la conduzione di calore o la diffusione di materia) è sempre strettamente crescente nel tempo.

Nuovi percorsi relativi al teorema H di Boltzmann

Ultimamente ho riletto i miei appunti sul teorema H di Boltzmann (vedi il wiki sull’entropia #qui) presi dal libro “Meccanica Statistica” di Huang e anche con passaggi matematici presi dal libro “An introduction to Chaos in Nonequilibrium Statistical Mechanics” di Dorfman. Poi ho cercato online nuovo materiale affine a questo argomento e ho trovato in particolare:

– l’articolo di Maxwell dove ricava la distribuzione delle velocità per un gas che si trova in uno stato di equilibrio;

– l’articolo “Su due obiezioni ben note al teorema H di Boltzmann” di Paul e Tatiana Ehrenfest, trovato nei materiali divulgati da Vulpiani;

– l’articolo di Goldstein, Lebowitz, Tumulka, Zanghi “Long-Time Behavior of Macroscopic Quantum Systems: Commentary Accompanying the English Translation of John von Neumann’s 1929 Article on the Quantum Ergodic Theorem” (wiki sull’entropia #qui).

Finalità di questo blog

Benvenute a tutte le persone che visiteranno questo nuovo blog di fisica!

Mi chiamo Marco Rizzinelli (sito personale #qui), sono insegnante (corsi online #qui) e per ampliare il mio wiki sulla freccia del tempo (link #qui) inizio oggi a scrivere un diario di bordo online per condividere le mie ricerche su un tema centrale di termodinamica e di fondamenti della meccanica statistica.

Se volete dialogare con me sul principio di entropia commentate pure! Buona lettura.