In questa estate un po' particolare di un anno che più particolare non avrebbe potuto essere, non si fa che parlare delle storie estive dei vari personaggi più o meno famosi o di dove vanno a farsi fotografare le o gli influencer. Ecco, io che influencer non sono, ma che vivo nel perenne splendido disagio di interessarmi di scienze e, nello specifico, di come applicare la fisica alla comprensione della materia vivente, sono qui a proporvi una lettura sotto l'ombrellone in cui non ci saranno baci rubati, né miei scatti davanti a un modello di proteina, ma due temi che con l'estate stanno bene solo perché sono temi caldissimi. Ecco, magari mostrare che state leggendo questo blog vi aiuterà a mantenere a distanza i vostri vicini di ombrellone ai quali sembrerete un po' strambi. Questo mese voglio infatti parlarvi di apprendimento automatico e intelligenza artificiale: fa molto più scena chiamarli con i termini inglesi "machine learning" e "artificial intelligence" ma appartengo a quella categoria di persone di una certa età che amano ancora usare il termine italiano quando c'è. O la verità è che amo troppo la lingua inglese per infarcire un mio pezzo in italiano di termini inglesi per il solo gusto di metterceli. Si tratta di un argomento vastissimo e su cui non sono certo uno dei massimi esperti mondiali (del resto credo di esserlo solo sul gateau di patate): tuttavia gli accidenti della mia vita scientifica mi hanno portato ad occuparmi di reti neurali artificiali, da cui tutto questo campo del machine learning e dell'artificial intelligence ha pescato a piene mani.
L'ho fatto proprio agli inizi, ovvero per la mia tesi di laurea: avrei dovuto lavorare a modelli di reti neurali applicati al riconoscimento del segnale della presenza del bosone di Higgs nelle tracce provenienti dal CERN di Ginevra. Era il 1996 ed era certamente una linea abbastanza esotica per arrivare a scoprire il bosone di Higgs (il cui inequivocabile segnale è arrivato solo nel 2012, quando io mi interessavo ormai di modelli per le membrane biologiche), ma aveva il suo fascino, anche se per motivi che in seguito definirò sbagliati. Per me il fascino consisteva nel fatto che questi modelli fossero ispirati al funzionamento dei nostri neuroni: nella mente, peraltro abbastanza complicata, della mia versione giovane (la situazione con l'età non è migliorata per niente, anzi!), che fossero poi applicati al bosone di Higgs era un dettaglio del tutto trascurabile, qualcosa che avrebbe fatto contenti i miei professori, ma che realizzava questo corto circuito di una mente giovane e complicata che voleva studiare la complessità della mente umana. Oh, le cose o le persone semplici non mi sono mai granché piaciute...
Le reti neurali alle quali però eravamo interessati avevano la capacità di modificare i collegamenti tra i neuroni e di farlo sulla base della storia precedente della rete: si trattava, in pratica, di una rete che imparava per esperienza, un po' come facciamo noi quando cominciamo a camminare e impariamo a stare in piedi dalle nostre cadute. L'idea era che questo apprendimento avrebbe consentito alla rete di riconoscere il segnale dell'Higgs, ma sarà chiaro a tutti che io all'Higgs non solo non ci sono mai arrivato, ma me lo sono dimenticato già dopo il primo mese di tesi. La verità è che, nel cercare questi modelli, mi ero imbattuto in un libro (a quei tempi si doveva andare in biblioteca e fare i conti con quel che c'era) di neurofisiologia e avevo poi trovato alcuni articoli (scritti da fisici) in cui la capacità della rete di adattare i collegamenti (le sinapsi) veniva messa in relazione non soltanto con la capacità di apprendere, ma anche con l'interpretazione dei meccanismi legati alla fase REM del sonno umano. Fu un punto di non ritorno: a quel punto usai il modello dei fisici con qualche accorgimento ispirato dalla neurofisiologia per far "sognare" la mia rete che doveva cercare l'Higgs. Ricordo ancora il momento in cui il programma mi funzionò e riuscii a far sognare la prima rete: stavo probabilmente seguendo Walt Disney con il "se puoi sognarlo, puoi farlo". Anche la mia rete confermava il risultato dei fisici, ovvero i sogni permettono di liberarsi dei ricordi meno importanti, che lasciano un segno molto lieve sulla rete, e stabilizzano invece i ricordi che più hanno colpito.
La rete mi sembrava così umana che, a quel punto, decisi di andare oltre e simulare l'apprendimento, insegnandole alcune figure geometriche e rendendomi conto che cominciava a riconoscerle. E' un comportamento tipico delle memorie associative, ma l'aspetto interessante era questo meccanismo di apprendimento: oggi lo chiameremmo "supervised learning" visto che c'ero io come supervisore. Il supervisore, peraltro, essendo giovane, trovava irresistibile l'idea di giocare un po' con questa rete: cominciai a fare quello che io chiamavo "il lavaggio del cervello", ovvero un addestramento forzoso in cui presentavo sempre le stesse immagini. Il risultato? La rete sviluppava meccanismi del tutto simili alle nostre ossessioni. E la cura per queste ossessioni? Fornire alla rete tante immagini (ma non casuali!) in modo da trasformare quell'unica ossessione in tante piccole ossessioni e, infine, in tanti piccoli interessi. La cura alle ossessioni della rete era insomma trovarle delle distrazioni abbastanza interessanti da distoglierla dai suoi pensieri ossessivi. La fisica che incontrava la psicologia: addio, bosoni di Higgs! Tra noi non avrebbe comunque mai funzionato.
Mi piace raccontare questo episodio, perché è un esempio di "serendipity", ovvero di quelle strane coincidenze della vita che ti portano a scoprire lati della tua personalità che poi definiranno quello che sarai: la vita ne è piena, soprattutto nel periodo che va dalla adolescenza all'età matura. Lo dico anche agli adolescenti: quando vi sentite un po' giù, lasciate che la vita vi stupisca, perché lo farà e in modi anche molto divertenti!
La mia storia personale ha poi abbandonato le reti neurali: negli anni successivi, infatti, troppe sono state le distinzioni tra i modelli e la realtà delle neuroscienze cognitive, che hanno conosciuto uno sviluppo senza pari. Soprattutto le reti neurali non riuscirono a realizzare ciò che, secondo gli scienziati, avevano promesso: imparare e riconoscere le novità. La rete imparava per associazione, un po' come facciamo noi quando giochiamo con le tessere del memory, ma non era in grado di riconoscere qualcosa a cui non era stata precedentemente esposta. Molti abbandonarono il campo, oppure andarono verso le neuroscienze cognitive, cercando di studiare quei meccanismi neurofisiologici che regolano alcune delle funzioni di quella macchina meravigliosa che è il nostro cervello. Per me è rimasto un campo interessante, il mio punto di partenza, ma la delusione seguita all'iniziale entusiasmo era pari a quella di un amore che non mantiene le sue iniziali promesse. Mi sono dedicato ad altro e, in particolare, ai modelli che permettevano comunque di interpretare i fenomeni biologici per mezzo della fisica. E, proprio come in amore diffidiamo dei precedenti, allo stesso modo quando qualche anno fa le reti neurali sono ritornate un argomento di moda, ho accolto il tutto con una malcelata diffidenza.
Perché parliamo di machine learning e artificial intelligence, ma in realtà quello che stiamo facendo è semplicemente studiare reti neurali con architetture un po' più complicate di quelle che si studiavano 25 anni fa, complice naturalmente l'aumento di potenza dei calcolatori. In realtà questa mia descrizione è un po' ingenerosa, perché non è propriamente così: la nuova giovinezza dell'intero campo è dovuta principalmente al fatto che le reti neurali sono diventate uno strumento non per indovinare segnali nuovi, ma un metodo per analizzare i dati. In un'epoca caratterizzata dai big data, ovvero da grandi moli di dati disponibili, il cervello umano semplicemente non riesce a elaborare: un cervello artificiale, pur semplice come può essere un modello di rete neurale, ha invece la capacità di elaborare un enorme numero di informazioni e di trovare delle strutture che al nostro cervello sfuggono perché non ha uno sguardo di insieme così esteso. In altre parole, le reti sono ora capaci di imparare in modo automatico, quindi senza quel supervisore che all'inizio si emozionava nel farle sognare e poi si divertiva a ossessionarle e a curarle, ma cosa possono imparare? Possono imparare a trovare le strutture che si ripetono nei dati, possono sostituire quel lavoro noioso e ripetitivo a cui il nostro cervello dopo un po' rinuncia, anche perché è più affascinato dai concetti astratti e dalle procedure di astrazione che una rete neurale (dovrei dire ancora?) non ha. E' in questo senso che oggi si parla di machine learning, o apprendimento automatico. E' in questo senso che si parla di intelligenza artificiale: niente riesce ancora a sostituire il cervello umano, ma ci sono attività molto ripetitive o di semplice "annotazione" (book-keeping in inglese) che un computer sa gestire molto meglio di un cervello, perché un computer può essere noioso ma non conosce il concetto di noia e non si annoia.
![]() |
| H. Jung, R. Covino e G. Hummer (2019) |
Ora dovrebbe essere chiaro perché ho voluto parlare di apprendimento automatico e intelligenza artificiale qui, in un blog di biofisica computazionale: cosa c'è di più ripetitivo e di più noioso che andare a riconoscere strutture nel codice genetico dei viventi? O ancora, cercare di individuare elementi strutturali nelle proteine? Beh, magari questo è meno noioso e infatti è un'attività che è stata fatta dai nostri cervelli a partire dagli anni '60 del secolo scorso. E però, attenzione: il peggior limite ai nostri calcoli in biofisica computazionale è proprio il famoso passo di integrazione, quel Δt così piccolo che ci impedisce di studiare altro che non siano fluttuazioni all'equilibrio delle macromolecole biologiche. Tuttavia, in un post precedente avevo parlato delle famose COLVAR e di come la loro scelta fosse determinante per riuscire a trovare una via per studiare le proprietà delle macromolecole biologiche, i loro passaggi da uno stato a un altro, le possibilità offerte dalla meccanica e dall'elettrostatica, nelle quali la vita è riuscita a trovare un modo per continuare a prosperare, almeno sul nostro pianeta. E se affidassimo agli algoritmi di machine learning e intelligenza artificiale la scelta delle COLVAR? E' proprio questa l'idea alla base dello studio recente di H. Jung, R. Covino e G. Hummer: "L'intelligenza artificiale assiste la scoperta di coordinate di reazione e meccanismi nelle simulazioni di dinamica molecolare" (qui il link all'articolo originale).
Attenzione, però: niente formula magica dell'intelligenza artificiale. Gli stessi autori parlano di scelta assistita dall'intelligenza artificiale, ma non di intelligenza artificiale che scopre segnali nuovi. E' proprio qui la chiave di questa nuova fioritura di tutto il campo che fu delle reti neurali. Non si tratta di scatole magiche che ci permettono di trovare ciò che il nostro cervello non riesce a scorgere, come ingenuamente pensavamo di fare con le tracce del CERN negli anni '90. Si tratta, invece, di usare la superiore potenza di elaborazione dei dati (in termini di immagazzinamento e calcolo) per far sì che le reti imparino, automaticamente, a scandagliare i dati in modo efficiente. E molto meglio di come il nostro cervello potrebbe mai fare. Resta inteso che le reti però non capiranno mai ciò che stanno facendo, mentre noi sì: a noi resta poi quel compito bellissimo e creativo di raccontare ciò che quei calcoli hanno prodotto. E in quello non ci sarà (per fortuna!) nessuna intelligenza artificiale a poterci aiutare, perché le emozioni sono troppo umane ed è solo attraverso le emozioni che il nostro cervello riesce a maturare la consapevolezza di aver compreso ciò che sta studiando. Finché le reti non impareranno a sviluppare le emozioni, possiamo stare sereni perché il machine learning e l'intelligenza artificiale non sostituiranno mai il nostro racconto della scienza. Del resto, dite un po': la parte che ricorderete più facilmente di questo post non è proprio quel sadico che si è divertito a ossessionare un programma al computer per poi curarlo?
Nota finale: tante volte nella vita mi sono trovato davanti a dolori che sono stati talmente forti da creare meccanismi ossessivi. Qualunque cosa io facessi, il pensiero tornava sempre al dolore o al torto subito. Ogni volta che accade, mi torna sempre in mente quella mia rete neurale che mai si mise a indagare il bosone di Higgs. Mi ricordo di come ero riuscito a ossessionarla e, poi, a curarla. E applico la stessa cura a me stesso: ci mette un po' a funzionare, ma quando i miei amici mi chiedono "come fai ad avere tanti interessi?" ecco, nel mio cervello si forma un'unica risposta: come potrei fare diversamente?








Nessun commento:
Posta un commento