
Ecco, politicamente sembrerebbe proprio così, visto l'esito dell'ultimo mandato esplorativo conferito dal Presidente della Repubblica al Presidente della Camera dei Deputati. In effetti è stata proprio la situazione politica di questo primo mese del 2021 a generare questa mia riflessione sull'entropia. Cerco però di procedere con ordine, perché l'argomento non è complicato ma richiede alcuni passaggi ed è soprattutto di fondamentale importanza nella fisica applicata alla biologia e, di conseguenza, in biofisica computazionale. Sentiamo spesso parlare dell'energia e a scuola abbiamo tutti studiato l'energia meccanica: la somma dell'energia cinetica e dell'energia potenziale. Nei corsi di fisica generale che insegno, mi piace sottolineare come sia decisamente più semplice utilizzare l'energia per risolvere i problemi di meccanica, rispetto alla risoluzione che passa per i calcoli delle forze con i vettori: le equazioni, in effetti, sono più semplici da risolvere. E però (perché un però c'è sempre!) non è sempre possibile. E inoltre, quando è possibile, dobbiamo tenere in conto che l'energia meccanica non è l'unica energia in gioco, ma c'è anche una forma di energia un po' meno facile da trattare e che si manifesta ogni qual volta osserviamo fenomeni in cui cambia la temperatura o la fase di una sostanza (da solido a liquido, per esempio il ghiaccio che si scioglie). Si tratta del calore, uno dei modi in cui è possibile scambiare energia. Del calore si occupa la termodinamica, che di per sé non sarebbe neanche troppo complicata, almeno nei suoi principi generali. Ciò che è davvero complicato in termodinamica è il suo essere sostanzialmente una teoria basata sulla statistica: tutto ciò che accade non è l'unica cosa possibile, ma semplicemente la più probabile con un grado di probabilità talmente alto da risultare praticamente certo.

Se abbiamo studiato l'energia, sappiamo che un qualunque sistema evolve verso lo stato di minima energia: così un sasso posto sulla sommità di un monte tenderà ad andare verso il basso, o anche la neve che si scioglie. Se usassimo solo l'energia, tutto sarebbe tremendamente semplice: basterebbe calcolare il minimo valore dell'energia per trovare lo stato di equilibrio di un qualunque sistema. Tutto questo però è valido quando abbiamo a che fare con pochi oggetti macroscopici: a livello molecolare è tutto più complicato. Più che di energia, dovremmo parlare di "energia libera", un nome forse un po' infelice, perché sembrerebbe quasi che l'energia meccanica (che in termodinamica si chiama energia interna) fosse in qualche modo imprigionata, mentre in realtà è l'energia libera che proprio libera non è, dato che soffre della maledizione dell'entropia. Ma perché è una maledizione? Come l'energia, l'entropia dipende soltanto dallo stato del sistema e non dalla sua storia: un bicchiere d'acqua nelle stesse condizioni di temperatura ha lo stesso valore di entropia, sia che si tratti di acqua che è caduta da una cascata, sia che si tratti di acqua che abbiamo lasciato in casa per un bel po' o che provenga da una cometa.
 |
La scrivania di Albert Einstein |
A scuola ci viene detto che l'entropia misura il grado di disordine del sistema: una definizione che ha anche il suo fascino ed è sorprendente vedere che il disordine di un sistema non dipende dalla storia di quel sistema, cosa che (devo ammettere) era piuttosto evidente a mia madre quando si lamentava del disordine sulla mia scrivania qualunque fosse l'esame che stessi preparando. Fin qui le buone notizie. Passiamo alle cattive: per calcolare l'entropia sarebbe necessario conoscere tutti i possibili stati del sistema, o meglio, almeno quanti sono. Più stati ci sono, più possibilità ci sono per il disordine: in effetti anche su questo mia madre ripeteva sempre che il grado di disordine della mia scrivania aumentava con le dimensioni della scrivania stessa. Questo, tra l'altro, è il motivo per cui nello studio della mia nuova casa di Trento non ho messo una scrivania, ma un corrimano accanto alla poltrona dove mi metto a leggere, in modo tale che possa starci su un solo libro: entropia ridotta al minimo!

Torniamo però all'entropia, detta anche Lady S (perché si indica con la lettera S). La formula esatta per il calcolo dell'entropia fu scoperta dal fisico austriaco Ludwig Boltzmann ed è talmente identificativa che si trova persino sulla sua tomba a Vienna: S = k log W, dove k è una costante (indovinate come si chiama? Esatto: costante di Boltzmann!), il log è la funzione logaritmo, una delle meno amate della matematica perché restituisce l'esponente al quale bisogna elevare la base (che in questo caso sarebbe il numero di Nepero e = 2.718281828459... ) per ottenere l'argomento (in questo caso W). Per il logaritmo vi garantisco che non è un grande problema: ormai è presente anche sulle calcolatrici dei nostri smartphone. Il vero problema è però W: W è il numero di possibili stati del sistema compatibili con le condizioni date. Ovvero tutte le sue possibilità. Ora, se il sistema fosse fatto di una sola molecola d'acqua che può occupare dieci posizioni, il numero di stati possibili sarebbe dieci. Li possiamo anche chiaramente contare uno alla volta. S = k log 10: finito. Ma già con due molecole di acqua in dieci posizioni, il numero di stati diventa 45: si tratta di calcolo combinatorio, niente di problematico: S = k log 45. E, se proprio non vogliamo utilizzare il calcolo combinatorio e non abbiamo niente da fare, possiamo anche contare gli stati uno alla volta e distinguerli. In un bicchiere di acqua il numero di molecole è però enorme ed è enorme anche il numero di posizioni che queste molecole possono assumere. Calcolare il valore esatto dell'entropia è praticamente impossibile a meno di grosse approssimazioni sul comportamento delle molecole di acqua. Se però riusciamo a portare avanti questo complicato calcolo con le approssimazioni e vogliamo poi contare gli stati uno alla volta e distinguerli, il tempo di vita dell'Universo non sarebbe sufficiente neanche ad arrivare alla metà di essi. Eccolo lì il problema: come facciamo a calcolare il valore dell'entropia se dobbiamo tener conto di tutte le possibilità concesse ad un sistema fisico? E, ancora peggio, in una simulazione non possiamo conoscere a priori quali saranno gli stati possibili: dobbiamo sperare che due condizioni vengano verificate.

La prima è che tutti gli stati compatibili con le condizioni del sistema siano visitati durante la simulazione: questa condizione prende il nome di ergodicità ed è davvero difficile assicurarsi che il metodo di simulazione (l'algoritmo) sia ergodico, anche solo in linea di principio. La seconda è che ci sia abbastanza tempo per visitarli tutti: o per lo meno quelli più importanti, quelli che sono più probabili e che sembrerebbero indistinguibili, anche se in realtà sono stati differenti (altrimenti sarebbero già stati conteggiati). E' come giocare a Pac-Man, insomma: senza i fantasmini, ma con un immenso campo di gioco da percorrere. Si capisce che questo richiede tempi di simulazione enormi: anche perché gli stati che il sistema dovrebbe visitare potrebbero essere separati da barriere di energia. Le barriere non sono insuperabili, ma più sono alte, più tempo dobbiamo aspettare perché vengano superate. Si capisce dunque che pensare di calcolare l'entropia con una simulazione è davvero una missione impossibile.
Esiste un modo per liberarsi dell'entropia? Sì, un modo c'è: in realtà la funzione che dovremmo rendere minima è appunto l'energia libera F, che è una combinazione dell'energia interna U e dell'entropia S, secondo la formula F = U - TS dove T è la temperatura in gradi assoluti: che non vi venga in mente di usare i gradi Celsius o i terribili gradi Fahrenheit! Eccolo lì il trucco: andare a T = 0! A quella temperatura, l'entropia non dà nessun contributo e quindi basta solo minimizzare l'energia. Peccato che quella T = 0 non sia la temperatura a cui si forma il ghiaccio alla nostra pressione atmosferica, bensì il cosiddetto zero assoluto, ovvero -273.15 °C, una temperatura alla quale, peraltro, possiamo solo avvicinarci senza mai raggiungerla: ce lo dice il terzo principio della termodinamica, un limite con il quale non viene certo voglia di scherzare! Se siamo a temperature basse e con energie molto alte, possiamo anche sperare che il contributo dell'entropia sia trascurabile, ma alle temperature alle quali osserviamo la vita l'entropia c'è e conta davvero molto.

Dalla formula si capisce subito che ogni sistema, a una data temperatura, nel tentativo di rendere minima l'energia libera ha due strade: rendere minima l'energia e rendere massima l'entropia. E' proprio in questa continua lotta tra queste due tendenze (spesso opposte) che si giocano i meccanismi che permettono alla materia di essere (anche) vivente. La vita non sarebbe possibile se ci fosse solo l'energia: tutto andrebbe verso l'equilibrio della morte. E' l'entropia, è il disordine che ci consente quella varietà di comportamenti che hanno permesso alle forme viventi di proliferare su questo pianeta. Ci sono pochi modi, infatti, di far diminuire l'energia, ma il disordine si può aumentare in mille modi, come sapeva la mia povera mamma quando guardava disperata la mia scrivania. Un esempio tra tutti: le proteine raggiungono il loro stato ripiegato (folded) proprio per motivi entropici. Potreste pensare che lo stato ripiegato in realtà corrisponda a uno stato ordinato della proteina, mentre quello non ripiegato corrisponda a uno stato non ordinato. Dunque lo stato ripiegato ha meno entropia dello stato non ripiegato. Avreste perfettamente ragione: è così. Allora forse il guadagno in energia riesce a compensare per la perdita di entropia dovuta al ripiegamento? Eh no. L'errore è qui. In realtà per calcolare l'entropia non possiamo focalizzare la nostra attenzione su un singolo elemento: è necessario calcolare l'entropia del sistema che comprende la proteina e il solvente in cui è immersa, ovvero l'acqua. Quando la proteina non è ripiegata, molte molecole di acqua sono costrette a interagire con essa, non sono libere di muoversi e di contribuire al disordine. L'entropia della proteina è maggiore, ma l'entropia del sistema complessivo (proteina + acqua) è minore. Quando la proteina raggiunge il suo stato ripiegato, le molecole d'acqua non sono più costrette a interagire con una buona parte della proteina (in particolare la sua parte idrofobica che non ha proprio nessuna voglia di interagire con l'acqua) e sono quindi libere di muoversi facendo trionfare il disordine e l'entropia.

Dunque va da sé che se vogliamo descrivere accuratamente i fenomeni biologici in biofisica computazionale, dobbiamo portare davvero tanta pazienza: perché affinché il sistema trovi il massimo disordine ci vuole tempo. Con temperature altissime, il sistema va talmente veloce che esplora tutte le sue possibilità: a basse temperature, in realtà sarebbe sufficiente conoscere lo stato di minima energia (bisogna poi capire se è un minimo globale o locale, ma accontentiamoci): alle temperature intermedie dobbiamo lasciare che la nostra simulazione completi il suo mandato esplorativo, almeno verso gli stati più probabili. Sarà forse per questo che i mandati esplorativi durano così tanto in politica? E le consultazioni servono per avere una stima di tutte le possibilità a disposizione? E quale parametro rappresenta la temperatura? Io scommetterei sui soldi e, a questo giro, sui fondi del Recovery Fund: è bastato avere tanti soldi da spendere per aumentare di parecchio il grado di entropia dei partiti politici e, di conseguenza, la lunghezza delle consultazioni. In effetti, a basse temperature (ovvero quando abbiamo rischiato di finire in default) si sapeva benissimo cosa fare e le consultazioni duravano molto meno...
Nessun commento:
Posta un commento