Significato matematico della quantità H e introduzione del calcolo delle probabilità

Nelle “Lezioni sulla Teoria dei Gas” di Boltzmann del 1898, tradotte da Rossani e a cura di Badino, possiamo trovare un importante lavoro su di un gas con volume unitario.

L’autore inizia parlando dei principi del calcolo delle probabilità, prendendo ad esempio un’urna contenente molte sfere nere e in ugual numero bianche e proponendo di fare 20 estrazioni puramente casuali, con reinserimento. La probabilità di estrarle tutte nere è la stessa di altre possibili estrazioni e il fatto che sia più probabile estrarne 10 bianche e 10 nere piuttosto che tutte nere dipende dal fatto che l’evento 10-10 può avvenire in molti più modi dell’evento 20-0. Se rapportiamo le due probabilità abbiamo 20!/(10!10!) che indica quante permutazioni possiamo fare dei termini della serie di 10 bianche e 10 nere, trattando le differenti sfere bianche e nere come identiche. Se aumentiamo i colori abbiamo la probabilità di estrarre “a” sfere di un certo colore, “b” di un altro, ecc. pari ad un numero (a+b+c+…)!/(a!b!c!…) di volte più grande di estrarre sfere di un solo colore. Ebbene:

l’evento che tutte le molecole in un gas abbiano esattamente la stessa velocità e direzione di moto non è affatto meno probabile dell’evento che ciascuna molecola abbia esattamente la velocità e direzione di moto che effettivamente ha in un particolare istante nel gas. Ma se confrontiamo il primo evento con l’evento che la distribuzione maxwelliana di velocità vale nel gas, troviamo che a quest’ultimo appartengono molte più configurazioni equiprobabili.

E poi Boltzmann procede a legare questa legge con il funzionale H del teorema omonimo, utilizzando la formula di approssimazione al continuo “p! = radice(2 pigreco p)(p/e)^p” con “e” base dei logaritmi naturali, dividendo lo spazio in cellette di volume omega e introducendo la funzione “Z” equivalente al numero calcolato prima (in grassetto). A questo punto l’autore afferma:

Il teorema […] che afferma che H decresce a causa delle collisioni, dice semplicemente che, per via delle collisioni, la distribuzione di velocità delle molecole del gas si avvicina progressivamente a quella più probabile, considerando lo stato molecolarmente disordinato, e in questo modo si introduce il calcolo delle probabilità.

E continua rispondendo alle questioni sulla reversibilità e, in sostanza, alla validità delle ipotesi di disordine molecolare che garantiscono la validità del teorema H.

Infine riflette sul numero grande ma comunque finito delle molecole per unità di volume e sui fenomeni le cui proprietà del gas non sono grandi rispetto al libero cammino medio, per poi dire:

Tutti gli altri fenomeni hanno luogo in spazi così grandi che si può costruire un elemento di volume per cui il moto visibile del gas può essere preso come differenziale che contiene ancora un grande numero di molecole. […] La legge di distribuzione delle velocità molecolari non è precisamente corretta, non essendo il numero di molecole matematicamente infinito. Lo svantaggio di abbandonare la supposta validità esatta delle equazioni differenziali idrodinamiche è tuttavia compensata da una maggiore chiarezza.

Possiamo dunque osservare con quale destrezza Boltzmann introduce argomenti statistici all’interno della meccanica, mantenendo da un lato una visione d’insieme e dall’altro lato un’estrema attenzione ai dettagli matematici.


Considerazione sulla legge matematica (a+b+c+…)!/(a!b!c!…). Siamo di fronte ad una applicazione della formula di Bernoulli (presumo Jakob, 1654-1705): si veda il video #qui per una trattazione didattica.

Uno strumento che misura l’entropia

Grazie alla spiegazione di Atkins in “Il secondo Principio” #qui riprodotta possiamo definire operativamente l’entropia – alla Clausius – e rendere questa grandezza fisica più vicina al nostro vivere quotidiano. Come si costruisce un entropimetro? Con un termometro, una bilancia, una tabella dei calori specifici e infine un microprocessore che esegua calcoli e fornisca l’uscita su un display.

La propagazione dell’energia in modalità calore, nella conduzione

Finalmente #qui due belle paginette che collegano legge di Fourier e entropia di un sistema chiuso che viene mantenuto in uno stato stazionario. Leggete e gustatevi il processo intrinsecamente irreversibile della conduzione termica, vera e propria definizione di quella forma di transito di energia quale è il calore. Le difficoltà matematiche le ho rese al minimo (tutta algebra) e ho dichiarato bene i punti concettuali associati a passaggi matematici difficili. Sul finale un utile link ad una animazione che descrive l’approccio all’equilibrio (lo facciamo rendendo isolato il sistema e interrompendo dunque lo stato stazionario), in modo da vedere la freccia del tempo in azione.

Corrente di entropia, conduzione termica e ambiguità sulla potenza dissipata

Ho trovato #qui un lavoro del liceo cantonale di Locarno (D’Anna) ove si parla di conduzione termica utilizzando i concetti di “corrente di energia” e di “corrente di entropia” per indicare il flusso di energia e di entropia nell’unità di tempo, tra due sistemi che interagiscono termicamente. Il rapporto tra essi è proprio la temperatura assoluta alla quale avviene lo scambio, per cui abbiamo    I_{E} = T\cdot I_{S}   .

Si parla inizialmente della legge di Fourier costruendola in questo modo: la differenza di temperatura ai capi del conduttore è proporzionale alla corrente di energia, in base alla “resistenza termica” R_{term} = \bigtriangleup T / I_{E}  la quale è direttamente proporzionale alla lunghezza del conduttore e inversamente proporzionale alla conducibilità termica e alla sezione del conduttore.

Poi ci si sofferma alla situazione di stato stazionario per cui la corrente di energia entrante è uguale a quella uscente. Tuttavia le correnti di entropia sono differenti, in quanto l’interazione termica tra conduttore e ambiente avviene a temperature differenti (l’ambiente è suddiviso infatti in due sistemi non interagenti i quali mantengono la loro temperatura costante nel tempo). Nello specifico se abbiamo T_{1}> T_{2} allora vale I_{S_{1}}< I_{S_{2}} il cui significato è questo: durante la propagazione dell’energia attraverso il conduttore viene prodotta entropia e questa è la dimostrazione che la conduzione termica è un processo irreversibile.

Una prima domanda interessante è la seguente: dove viene prodotta l’entropia? Il tasso di produzione di entropia è la somma di tutti i contributi in ogni tratto spaziale del conduttore ed è dato da \pi_{S}=I_{S_{2}}- I_{S_{1}} ; vale infatti l’additività della produzione di entropia.

Una seconda domanda invece mi ha messo molto in discussione: a quale temperatura viene prodotta entropia? L’autore risponde con T_{2} proponendo la seguente ottima immagine riassuntiva che indica anche, secondo definizioni precedenti, la potenza termica  P_{term}=I_{S}} \cdot \bigtriangleup T   e la potenza dissipata P_{diss}=\pi_{S} \cdot  T

fdt-locarnoIl problema però dei seguenti passaggi algebrici fdt-locarno2è che nel terzo passaggio viene scelto senza giustificare di raccogliere T_{2} , quando si potrebbe raccogliere l’altra temperatura. Questo significa che si possono avere diverse potenze dissipate, ad esempio \pi_{S} \cdot T_{2}  oppure \pi_{S} \cdot T_{1} . Ho trovato ad esempio #qui (Liberto) un articolo che preferisce la seconda delle due formule appena citate. Come mai? Se si considera la potenza dissipata come il lavoro che avremmo potuto eseguire con una macchina termica reversibile, abbiamo due situazioni: o prendiamo calore Q da T_{1} e cediamo Q \cdot T_{2}/T_{1} a T_{2}, o prendiamo Q \cdot T_{1}/T_{2} da T_{1} e cediamo Q a T_{2} . Nel primo caso abbiamo la prima potenza dissipata, nel secondo caso la seconda (i calcoli sono semplici). Ebbene, siccome il calore Q nell’unità di tempo – cioè la corrente di energia – è uguale in entrata e in uscita, l’unico elemento di preferenza è la quantità di potenza dissipata. Allora è possibile preferire la maggiore dissipazione e quindi rispondere che l’entropia in un certo tratto di conduttore (all’interno del quale avviene conduzione termica) viene prodotta alla temperatura maggiore tra le due che si trovano ai capi del tratto stesso.

Costruiamo un orologio termodinamico

In base al modello proposto #qui di interazione termica tra due gas perfetti che sono praticamente identici a meno della loro temperatura iniziale, possiamo seguire direttamente la freccia del tempo grazie al tempo di rilassamento del sistema che da uno stato di non-equilibrio passa ad uno stato di equilibrio.

Attenzione! L’unico passaggio difficile da capire è quello riguardante l’aumento di entropia in quanto utilizza il calcolo integrale della funzione “1/T” , che produce il logaritmo in base naturale di T, cioè “lnT”. Se accetti questo aspetto – che comprenderai alla fine della classe quinta – tutto il resto è accessibile alle tue conoscenze di termologia, termodinamica e ai tuoi calcoli di matematica.

E se non ti soddisfa il modellino con solo 2 sottosistemi, ecco #qui l’evoluzione all’equilibrio di 4 sottosistemi oppure di 6 sottosistemi, preparati con cura in stati iniziali di non-equilibrio e poi lasciati evolvere spontaneamente verso l’equilibrio. Meraviglie dell’interazione termica ;o)

Cosa possiamo dire dell’espansione, spontanea e irreversibile, di un gas perfetto?

– Fisica in evoluzione 1 —> Parodi, Ostili, Onori ne parlano inizialmente considerando calore e lavoro nulli (per cui non vi è nessuna variazione di energia interna, in virtù del principio di conservazione dell’energia) e l’osservazione che il processo è isotermo, dunque come una prova ulteriore che l’energia interna dipende dalla sola temperatura; infine calcolano l’aumento di entropia per un raddoppiamento di volume di una mole di gas, utilizzando l’escamotage che l’entropia è funzione di stato e dunque scegliendo l’espansione isoterma reversibile che unisca gli stessi stati iniziale e finale.

\Delta S = nRln \frac{V_{f}}{{V_{i}}

Dalla formula appena scritta (che si trova usando l’equazione di stato dei gas perfetti e un calcolo difficile che scoprirai alla fine della quinta, il calcolo integrale) si ricava una variazione pari a circa 5,76 J/K. Siccome l’ambiente non assorbe calore la sua entropia rimane costante e dunque l’entropia dell’universo aumenta della stessa quantità di quella del sistema.

– Fisica e realtà.blu 1 —> Romeni ne parla nella parte di teoria in modo simile a quanto detto finora e poi nella sezione esercizi, quando tratta l’adiabatica e poi quando tratta l’entropia, sia con approccio microscopico che macroscopico. Va detto che nell’espansione isoterma libera non vi sono trasferimenti di calore e dunque è anche adiabatica. Anzi, negli esperimenti le espansioni rapide sono considerate adiabatiche – il calore non fa in tempo ad essere assorbito – e solo per il fatto che si approssima il gas reale a un gas perfetto tale trasformazione è anche isoterma. Infatti lo stesso autore parla dell’effetto Joule-Thomson di raffreddamento di un gas reale per espansioni adiabatiche (le particelle allontanandosi tra loro compiono lavoro contro le forze attrattive che si esercitano tra di esse, a spese dunque dell’energia cinetica media e quindi anche della temperatura).

Un esercizio proposto dall’autore pare molto delicato: si propongono le due trasformazioni seguenti: una espansione adiabatica irreversibile di un gas perfetto che va a occupare uno spazio vuoto e poi una compressione adiabatica reversibile che riporti il gas al volume iniziale (per cui si presuppone che tale spazio vuoto alla fine sia occupato dall’ambiente). Come varia globalmente l’entropia del sistema? L’autore come ingredienti di soluzione usa sia la formula per l’adiabatica reversibile (“T V alla gamma meno 1 rimane costante”) sia questa formula, senza però giustificarla in alcun modo:

\Delta S_{tot} =\Delta S_{gas} +\Delta S_{amb}=nRln\frac{V_{f}}{V_{i}}-nC_{V}ln\frac{T_{f}}{T_{i}}

Provando a interpretare i pedici: “gas” per indicare l’espansione irreversibile del sistema, “amb” per indicare il contributo dell’ambiente alla variazione di entropia del sistema (ecco perché c’è un meno) il quale (ecco perché c’è il numero di moli del sistema) si riscalda (ecco perché ci sono le temperature del sistema). In conclusione, accettando il calcolo dell’autore, abbiamo una ulteriore formula di flusso di entropia tra sistema (gas perfetto) e ambiente per compressioni adiabatiche reversibili (si ricorda che globalmente l’universo rimane isoentropico):

\Delta S_{adiabatica-reversibile}=-nC_{V}ln\frac{T_{f}}{T_{i}}

Nell’esercizio studiato l’universo globalmente aumenta del valore calcolato con la prima espansione irreversibile, mentre l’aumento globale di entropia netto nel sistema è minore rispetto a quello dell’universo. In parole povere si è prodotta più entropia nel sistema durante l’espansione irreversibile, di quanta entropia sia fluita nel sistema durante la compressione reversibile.

– Fisica! —> Caforio, Ferilli, oltre a trattare la teoria  come si è già detto, utilizzano per il singolo sistema (brutalmente), dichiarando che si ricava dal calcolo integrale, la formula

\Delta S=nC_{V}ln\frac{T_{f}}{T_{i}}+nRln\frac{V_{f}}{V_{i}}

e fanno anche un esempio dove si triplica il volume e si dimezza la pressione, arrivando – grazie anche all’equazione di stato dei gas perfetti – alla soluzione. Tuttavia siccome tale trasformazione non risulta essere isoterma, non possiamo considerarla espansione libera.

– Nuova Physica 2 —> Caforio, Ferilli anche in questo vecchio libro di testo ne parlano in modo simile a quanto detto finora, e inoltre grazie all’equazione di stato (o al suo caso particolare che è la legge di Boyle) trovano

\Delta S = nRln \frac{p_{i}}{{p_{f}}

che è l’aumento entropico in base ai valori di pressione del gas, che diminuisce durante  l’espansione;

– Fisica.blu —> Cutnell, Johnson non ne parlano nella parte teorica ma propongono un esercizio per riflettere sul fenomeno;

– Eureka! 2 —> Romoli, Albertini non ne parlano;

– Fisica per moduli 2 —> Ruffo non ne parla;

– Il linguaggio della fisica —> Parodi, Ostili, Onori non ne parlano;

– Le parole della fisica 2 —> Mandolini ne parla per argomentare l’interpretazione statistica del secondo principio e associa tale fenomeno alla freccia del tempo;

– Invito alla fisica 2 —> Tipler ne parla come nel caso precedente;

– La fisica di Amaldi 2 —> Amaldi non ne parla.

L’entropia come misura del grado di disordine

Seguendo l’eccezionale chiarezza dell’Atkins nel suo libro “Chimica Fisica” possiamo mostrare come sia l’approccio macroscopico che quello microscopico siano complementari per la descrizione dei fenomeni fisici. “La definizione termodinamica di entropia si concentra sulla variazione di entropia dS che si verifica per effetto di una trasformazione fisica o chimica… La definizione si fonda sull’idea che si possa dedurre il cambiamento del grado di dispersione caotica dell’energia dalla quantità di energia trasferita sotto forma di calore nel corso del processo… Il trasferimento dell’energia in forma termica sfrutta il moto caotico degli atomi dell’ambiente. Il trasferimento di energia sotto forma di lavoro, che sfrutta il movimento uniforme degli atomi dell’ambiente, non altera il grado di disordine, per cui non ne modifica l’entropia”. Poi l’autore distingue l’entropia totale in due contributi infinitesimi

dS_{tot} = dS_{sistema} + dS_{ambiente}

e considera l’ambiente come un serbatoio a temperatura costante. La prima argomentazione è che dS dell’ambiente è direttamente proporzionale al calore che il serbatoio assorbe (magari in conseguenza di un peso in caduta e un generatore con elemento riscaldante). Perché? Per il fatto che tanto più calore sarà trasferito al serbatoio tanto maggiore sarà l’agitazione termica suscitata in esso e quindi tanto maggiore la dispersione di energia che vi ha luogo. La seconda argomentazione è che dS dell’ambiente è inversamente proporzionale alla temperatura dello stesso. Perché? Dobbiamo ora affidarci al secondo principio nell’enunciazione di Clausius – l’energia tende spontaneamente a fluire dai corpi più caldi ai corpi più freddi – e constatare quindi che una data quantità di energia che si accumuli a temperatura elevata presenta meno entropia della stessa quantità di energia accumulata a temperatura inferiore.

Abbiamo una interpretazione molecolare per questa ultima argomentazione. “Le molecole di un sistema a temperatura elevata sono fortemente disorganizzate, sia dal punto di vista della loro ubicazione, sia da quello dell’occupazione degli stati energetici… ad esse accessibili. Una piccola aggiunta di energia farà aumentare relativamente di poco il disordine, nello stesso senso in cui sarebbe difficile accorgersi di uno starnuto in una strada animata. Al contrario, le molecole di un sistema a bassa temperatura hanno accesso a un numero di stati energetici di gran lunga minore… e il trasferimento della stessa quantità di energia in forma di calore avrebbe effetti pronunciati sul grado di disordine; questa volta sarebbe come se lo starnuto esplodesse nel silenzio di una biblioteca”.

Da tutto ciò possiamo definire

dS_{ambiente}=\frac{\delta Q}{{T_{ambiente}}}

che è uguale alla definizione di entropia di Clausius nel caso di equilibrio termico tra ambiente e sistema e per trasformazioni dell’ambiente che reversibilmente restituiscono il sistema al proprio stato iniziale, per cui

-dS_{sistema}+\frac{\delta Q}{{T_{ambiente}}}=0

La teoria cinetica e l’emergenza della freccia del tempo

Seguendo sempre il testo di Segré troviamo un elenco sterminato di persone lungo la storia della teoria cinetica: Bernoulli (1738), Avogadro (1811), Herapath (1820) e Waterston (1851), Rayleigh, Kroenig (1822-1879), ancora Clausius (1857), Maxwell (1859, 1860, 1867), Boltzmann (1866, 1871, 1872, 1877), Zermelo, Loschmidt, Watson (1876), Liouville, Cagniard (1822), Andrews, Cailletet, Pictet, Deville, Wroblewski, Olzewski, Dewar, Onnes (1908), van der Waals (1873), Gibbs, Helmholtz, Planck, Einstein.

Vediamo perché la teoria cinetica, in particolare con il lavoro di Clausius, Maxwell ma soprattutto Boltzmann, giustifica il secondo principio della termodinamica e dunque riformuliamo adeguatamente la freccia del tempo.

Nel 1866 Boltzmann trovò un risultato valido però solo per processi reversibili, e nel 1871 anche Clausius, indipendentemente. Nel 1867 Maxwell cercò di dare una prova rigorosa della distribuzione delle velocità molecolari di un gas in equilibrio, scoperta nel 1859; inoltre fu proprio Maxwell a intuire la natura statistica del secondo principio della termodinamica e il passaggio dunque dall’impossibilità di alcuni fenomeni (secondo la formulazione di Clausius o di Kelvin) ad una altissima improbabilità che tali fenomeni si osservino.

Ma nel 1871 e 1872 abbiamo il grande passo dovuto a Boltzmann che trovò come cambia la distribuzione delle velocità di un gas passando attraverso stati di non-equilbrio e raggiungendo l’equilibrio (grazie alla sua equazione del trasporto il cui studio è ancora attuale). L’ingrediente essenziale sono gli urti tra le molecole e quella che è definita al giorno d’oggi l’ipotesi di caos molecolare.

Ma non è finita qui. Boltzmann formulò il famoso teorema H definendo questa grandezza fisica (che altri non è che l’opposto dell’entropia definita da Clausius, divisa per la costante di Boltzmann!) su basi microscopiche e dimostrando, sempre sotto ipotesi di caos molecolare, che H diminuisce nel tempo durante il passaggio di un gas da stati di non-equilibrio allo stato finale di equilibrio, regolato dalla distribuzione di Maxwell delle velocità. Infine il sistema all’equilibrio mantiene costante nel tempo il suo valore di H. In formule (il simbolo dopo l’uguale indica un integrale, è una somma di infiniti addendi, comunque più avanti trovi una formula più semplice per l’entropia S)

teoremaH

Boltzmann migliorò il suo lavoro nel 1877, in risposta a obiezioni quali il paradosso di reversibilità e il paradosso di ricorrenza. Da queste discussioni emerse chiaramente che il valore di H diminuisce o rimane costante solo trascurando sue piccole fluttuazioni che sono comunque in un certo senso collegate all’elevata improbabilità della violazione della seconda legge della termodinamica. Tale improbabilità dipende inoltre anche dall’elevato numero di particelle che costitutiscono il gas.

La formulazione attuale nei libri di testo – dovuta storicamente a Max Planck, così come la paternità nell’assegnazione del termine “costante di Boltzmann” – è che l’entropia vale (in una forma generalissima)

S = k \cdot lnW

con “k” costante universale, “ln” logaritmo e “W” il numero di stati microscopici compatibili con i vincoli macroscopici e che il secondo principio denota l’altissima probabilità di un sistema di raggiungere l’equilibrio, in quanto il numero di microstati associati allo stato finale di equilibrio è enormemente maggiore di quello relativo ad altri stati, chiamati atipici da alcuni fisici che stanno proseguendo anche oggi il lavoro di Boltzmann. Si parla in questo caso di comportamento tipico di un sistema.

Possiamo allora riformulare la freccia del tempo in questo modo: se all’interno di un sistema isolato – che ha un comportamento tipico – avviene un qualsiasi fenomeno irreversibile allora la sua entropia aumenta – a meno di piccolissime e rarissime fluttuazioni – e dunque il sistema stesso evolve dal passato (S iniziale al tempo iniziale) verso il futuro (S finale al tempo finale).

E possiamo avere la garanzia che tale formulazione è valida per un gas composto da numerosissime particelle (si pensi al numero di Avogadro), molto rarefatto e debolmente interagente (con urti binari), che passa da uno stato di non equilibrio (tutte le particelle disposte inizialmente in un angolo di un spazio vuoto isolato e di forma cubica) allo stato finale stabile di equilibrio (secondo la distribuzione delle velocità di Maxwell).

Abbiamo collegato, anche con ingredienti di statistica, la meccanica microscopica alla termodinamica macroscopica, mostrando come la freccia del tempo non sia solo un fenomeno banalmente osservabile dai nostri occhi, ma emerga anche da principi primi fondamentali – come la conservazione dell’energia e la dinamica di un sistema di corpi interagenti – che sono anche a fondamento della comprensione fisica dell’essere umano.

Irreversibilità in termodinamica e formulazione della freccia del tempo

Dal libro “Personaggi e scoperte nella fisica classica” di Segré possiamo leggere le parole di Carnot, quando intorno al 1824 descrive il ciclo reversibile di una macchina termica: “tutte le operazioni su descritte possono essere eseguite in un senso o nel senso inverso”. Si riferisce alle famose espansioni o compressioni isoterme (con scambi di energia in modalità calore Q1 e Q2 tra sistema e serbatoi con temperature T1 e T2) o adiabatiche (per il passaggio del sistema da temperatura T1 a T2 e viceversa) che sono ben descritte sui libri di scuola. In questo caso non abbiamo freccia del tempo. Ma… per processi irreversibili?

Clausius nel 1850 (“Sulla forza motrice del calore e sulle leggi che da essa si possono ricavare per la teoria del calore”) formulò così il secondo principio della termodinamica: “il calore di per se stesso non può passare da un corpo freddo a uno caldo” (va intesa “l’energia in modalità calore”) e andò oltre, dimostrando una importante disuguaglianza e definendo la grandezza fisica entropia “S” (nel 1865, anche se il concetto lo aveva già elaborato fin dal 1851), funzione dello stato di equilibrio del sistema. La variazione di entropia nell’universo è nulla se all’interno di esso si realizza un ciclo reversibile di Carnot, mentre se avviene anche un minimo fenomeno irreversibile durante il ciclo della macchina termica, si ha che

\Delta S^{universo}_{irreversibile} = \frac{Q_{1}}{T_{1}}-\frac{Q_{2}}{T_{2}}>0

Clausius poi formulò tale scoperta in modo conciso ed estendola a qualunque sistema fisico: “l’entropia dell’universo tende a un massimo”.

Prima di concludere citiamo la formulazione equivalente del secondo principio, dovuta a Thomson, denominato Lord Kelvin: “è impossibile, per mezzo di agenti materiali inanimati, derivare un effetto meccanico da una qualsiasi porzione di materia raffreddandola al di sotto della temperatura del più freddo tra i corpi circostanti”.

Grazie all’entropia definita come funzione di stato di equilibrio e al secondo principio espresso come impossibilità che si realizzino certi fenomeni possiamo finalmente formulare con assoluta chiarezza la freccia del tempo in fisica: se all’interno di un sistema isolato avviene un qualsiasi fenomeno irreversibile allora la sua entropia aumenta e dunque il sistema stesso evolve da un equilibrio passato (S iniziale al tempo iniziale) verso un equilibrio futuro (S finale al tempo finale); in formula

\frac{\Delta S}{\Delta t}>0

E per stati di non-equilibrio? L’entropia è ancora definita? Si potrà ancora formulare la freccia del tempo? E su quali basi microscopiche emergerà la freccia del tempo qui descritta secondo una teoria macroscopica? Vedremo…

Chi ha definito la grandezza fisica entropia per la prima volta?

Il fatto che alcuni fenomeni fisici presentano una direzione preferenziale nel tempo viene spiegato grazie alla definizione di entropia ad opera di Clausius (puoi leggere #qui il suo testo “The Mechanical Theory of Heat” del 1867) e al suo teorema che riformula il secondo principio della termodinamica. Il lavoro di Clausius risulta essere fondamentale per giungere alla formulazione dell’entropia. Questa grandezza termodinamica, nel caso caratterizzi un sistema isolato all’interno del quale avviene un processo irreversibile (come la conduzione di calore o la diffusione di materia) è sempre strettamente crescente nel tempo.