L’eta’ dell’oro dell’INAF

Gli ultimi tre-quattro anni possono sicuramente essere considerati come l’età dell’oro dell’Istituto Nazionale di AstroFisica, almeno dal punto di vista dei finanziamenti. Il grafico che segue mostra l’evoluzione nel tempo del Bilancio dell’INAF, sia per quello che riguarda il Fondo di Funzionamento Ordinario (FFO) che altre entrate, che includono entrate finalizzate dal MUR stesso, dalla Commissione Europea, l’Agenzia Spaziale Italiana, L’Agenzia spaziale Europea, regioni e altri ministeri (fonte Piani Triennali di Attività http://www.inaf.it/it/amministrazione-trasparente/disposizioni-generali/atti-generali/documenti-di-programmazione-strategico-gestionale-1/piano-triennale/piano-triennale). Il dato 2022 è solo una stima. La quota di 104 MEuro per FFO è contenuta nel DM 571 del 21-6-2022 https://www.mur.gov.it/it/atti-e-normativa/decreto-ministeriale-n-571-del-21-6-2022).  Le altre entrate sono difficili da quantificare oggi, ma sicuramente includeranno fondi MUR destinati ad attività specifiche per un ammontare probabilmente superiore a quello 2021 (circa 46MEuro), includendo anche i finanziamenti di almeno una prima parte di fondi PNRR, per il Centro Nazionale HPC, oltre che finanziamenti ASI ed EC che negli ultimi anni hanno variato tra 15 e 20 MEuro l’anno.

L’FFO è aumentato a partire dal 2017 da circa 80MEuro l’anno fino a circa 100 MEuro, anche per finanziare l’assunzione di circa 200 nuovi ricercatori e tecnologi. Altri fondi sono aumentati in maniera anche più cospicua, anche scontando il periodo 2020-2021 dove l’emergenza Covid19 ha certamente avuto un impatto soprattutto sulle attività sperimentali e tecnologiche. La situazione economica dell’INAF degli ultimi anni, nonostante l’emergenza Covid19 e la recente emergenza internazionale, è quindi molto positiva. Prova ne è il recente bando per ricerca fondamentale 2022 che ha messo a disposizione dei ricercatori circa 7.5MEuro, una cifra mai destinata prima a queste necessità, superiore di un fattore 3-10 alla media annuale degli ultimi 10 anni. 

Una situazione sicuramente molto differente da quella dell’autunno 2007, quando l’allora CdA approvo un bilancio con zero finanziamenti per la ricerca fondamentale, evento che provoco le dimissioni del Consiglio Scientifico prima e dei Direttori di Struttura poi, portando al commissariamento dell’ente. O ancora peggio del 2011 quando l’FFO venne diminuito di circa il 10%, o, senza considerare gli stipendi, del 30% da un anno all’altro. Nel periodo 2011-2016 venne inoltre imposto un blocco del turnover, prima totale, poi parziale al 25%, che portò a una drastica riduzione del personale dell’INAF,  corretta per i ruoli di ricercatore e tecnologo con le stabilizzazioni del 2017 e anni seguenti, ma ancora non corretta per i ruoli tecnici e amministrativi. 

La situazione economica non potrà che migliorare nei prossimi tre anni, grazie ai fondi PNRR che INAF è stata capace di raccogliere: più di 200MEuro da spendere in 30 mesi.

CN-HPC15 MEuro
CTA+71 MEuro
STILES70 MEuro
NG-Croce19 MEuro
EMM30 MEuro
PE-Spazio6-7 MEuro, ancora in negoziazione
KM3~1 MEuro
ET?

Sinteticamente: INAF non è mai stato così ricco, e mai i ricercatori hanno avuto simili risorse a disposizione. La domanda a questo punto è ovvia: per fare cosa? Cioè, e’ utile, forse necessario capire quale sarà l’impatto di questa grande iniezione di risorse sull’istituto e soprattutto sui ricercatori. Prima di cercare risposte a queste domande, è necessario capire da dove si parte. Cioè quale è il livello di competitività scientifica di INAF oggi e come è cambiato nel tempo.

Il primo strumento per una valutazione della competitività di INAF è il recente documento “Valutazione della Qualità della Ricerca 2015-2019  (VQR 2015-2019)  Rapporto finale ANVUR Statistiche e risultati di compendio 21 luglio 2022″

Il VQR 2015-2019 è stato differente dai precedenti, soprattutto perché la maggior parte dei prodotti presentati è stata valutata non in maniera automatica ma in maniera puntuale da parte dei valutatori.  A seguito del giudizio di qualità, adogni pubblicazione e caso di studio è stato attribuito a  una delle seguenti categorie:

  • A Eccellente ed estremamente rilevante (ECR) PUNTEGGIO 1
  • B Eccellente (EC) PUNTEGGIO 0.8
  • C Standard (ST) PUNTEGGIO 0.5
  • D Rilevanza sufficiente (SUF) PUNTEGGIO 0.2
  • E Scarsa rilevanza o Non accettabile (SR) PUNTEGGIO 

Il VQR 2015-2019 utilizza i seguenti estimatori:

  • PUNTEGGIO COMPLESSIVO: Somma dei punteggi ottenuti dai prodotti nell’insieme di riferimento (es. Area scientifica). 
  • PUNTEGGIO MEDIO: misura della qualità media dei prodotti all’interno di ogni Istituzione nell’insieme di riferimento. 
  • INDICATORE QUALITATIVO ( R ): misura la qualità dei prodotti dell’Istituzione rispetto alla qualità media di tutte le Istituzioni, tenendo conto del peso delle diverse aree scientifiche nella specifica Istituzione. 
  • INDICATORE QUALI-QUANTITATIVO (IRAS): che misura la qualità dei prodotti valutati tenendo conto anche della dimensione (numero totale di prodotti) dell’Istituzione cioe’ moltiplicando R per H=peso nazionale dell’Istituzione i, come il rapporto tra il numero di prodotti attesi dell’Istituzione i (𝑁𝑖) e i prodotti attesi totali (𝑁).Gli indicatori più utili per un confronto tra istituzioni da un punto di vista dell’efficienza sono quindi il punteggio medio e l’indicatore qualitativo R, mentre dal punto di dell’impatto generale e della massa critica ovviamente gli indicatori più utili sono il punteggio complessivo e l’indicatore quali-quantitativo IRAS.

Le valutazioni sono fatte su prodotti presentati da due profili:

  • a) personale che ha mantenuto lo stesso  ruolo nel periodo 2015-2019: IRAS1 e R1
    b) personale che è stato assunto o ha  conseguito avanzamenti di carriera nel periodo 2015-19: IRAS2 e R2 
  • a)+b): IRAS1_2 e R1_2 

Le due tabelle che seguono riportano tutti questi indicatori per i cinque enti di ricerca più grandi. Le tabelle sono ordinate usando gli indicatori R1_2 e voto medio profilo A. E’ abbastanza evidente come l’INAF occupi le posizioni intermedie o di coda usando tutti gli estimatori, sia per quello che riguarda l’efficienza della produzione scientifica dei ricercatori (R e voto medio) che la massa critica e l’impatto globale dell’ente. E’ forse da notare che l’INAF nelle due tabelle segue l’ASI, quando molti dei prodotti presentati da ASI sono stati forniti da personale INAF coinvolto in progetti spaziali. 

EPRH1R1IRAS1H2R2IRAS2H1_2R1_2IRAS1_2
INFN12,361,0913,4220,691,0521,8015,121,0716,24
ASI1,011,081,091,741,031,781,251,051,32
INGV5,301,005,288,200,998,086,260,996,21
CNR67,730,9966,7449,310,9848,3061,640,9860,56
INAF7,900,987,7312,400,9912,239,390,989,24
EPRVoto medio Profilo AVoto medio Profilo BIba = media B / media A
INFN0,850,861,02
ASI0.830.790.95
INAF0,760,811,06
INGV0,70,690,99
CNR0,670,681,01

E’ interessante analizzare i dati che hanno portato al calcolo degli estimatori presentati nelle tabelle precedenti. Nella tabella che segue sono riportate le percentuali di prodotti delle 5 categorie, ordinati rispetto alla percentuale nella categoria A. Si può notare come questo ordine è esattamente inverso a quello della categoria C (INFN e ASI hanno la maggiore percentuale di prodotti valutati A, e la minore percentuale di prodotti valutati C, al contrario CNR e INGV). ASI ed INFN hanno presentato circa il 45% di prodotti valutati nella categoria A contro un 11-13 % in categoria C, mentre l’INAF ha circa un terzo di prodotti in categoria A e un quinto in categoria C.

EPR# prodotti conferitiA %B %C %D %E %
INFN3.31446,7740,9811,410,7240,121
ASI27444,8936,1313,145,110,730
INAF2.05933,6541,3821,902,670,388
CNR12.33525,9842,5325,505,0510,47
INGV1.37221,6539,0729,238,601,46

La conclusione è che INAF rispetto ad INFN è sbilanciato verso prodotti standard rispetto a quelli estremamente rilevanti.

VQR 2015-2019 fornisce pure gli indicatori R e IRAS per i dipartimenti e le strutture che compongono gli enti. La tabella che segue riporta gli indicatori R e IRAS per le 16 strutture INAF, ordinata usando l’estimatore R1_2.

Struttur # prodotti attesi # prodotti attesi ric. in mobilità H1 R1 IRD1 H2 R2 IRD2 H1_2 R1_2 IRD1_2 
OAR164 101 0,43 1,08 0,46 1,39 1,06 1,48 0,75 1,08 0,81 
OATs134 66 0,46 1,06 0,49 0,91 1,04 0,94 0,61 1,05 0,64 
OAAb42 18 0,16 1,01 0,17 0,25 0,25 0,19 1,01 0,19 
OASBo228 93 0,92 0,98 0,91 1,28 1,03 1,32 1,04 1,04 
OAPd175 81 0,64 1,04 0,67 1,12 0,96 1,07 0,8 0,8 
OAA160 49 0,76 0,99 0,75 0,68 0,68 0,73 0,99 0,72 
OACn120 28 0,63 1,03 0,65 0,39 0,91 0,35 0,55 0,99 0,54 
IASF-MI 83 39 0,3 0,9 0,27 0,54 1,07 0,57 0,38 0,98 0,37 
OATo134 28 0,72 0,98 0,71 0,39 1,02 0,39 0,61 0,98 0,6 
OACa91 48 0,29 0,92 0,27 0,66 0,66 0,42 0,97 0,4 
IAPS 256 155 0,69 0,97 0,67 2,14 0,96 2,04 1,17 0,97 1,14 
IRA 116 46 0,48 0,94 0,45 0,63 0,99 0,63 0,53 0,96 0,51 
OAPa65 29 0,25 0,93 0,23 0,4 0,94 0,38 0,3 0,94 0,28 
OABr121 65 0,38 0,94 0,36 0,9 0,93 0,84 0,55 0,94 0,52 
OACt117 42 0,51 0,9 0,46 0,58 0,9 0,52 0,53 0,9 0,48 
IASF-PA 53 12 0,28 0,78 0,22 0,17 0,7 0,12 0,24 0,75 0,18 

Un confronto con la precedente VQR 2011-2014 (https://www.anvur.it/rapporto-2016/) non è semplice, anche per il cambio di impostazione nella valutazione dei prodotti (semi-automatico verso puntuale). La tabella che segue riporta tre estimatori, il voto medio, il voto medio normalizzato rispetto al voto medio degli enti di ricerca R e l’estimatore IRAS, assieme alla frazione di prodotti in sei categorie da A a F. 

EPRVoto medio norm (R)Somma punteggi (v)# Prodotti attesi (n)Voto medio (I=v/n)% A% B% C% D% E% FIRAS1 x 100
INFN1,11248627930,8976,7613,756,232,400,210,6444,75
INAF0,94108514440,7552,0125,9711,635,891,113,3919,52
CNR0,91154021240,7246,0529,5213,516,260,713,9527,72
ASI0,8172,31120,6544,6420,5412,505,360,8916,071,30

INAF occupava una posizione intermedia tra INFN e CNR usando gli indicatori R e I, mentre seguiva anche il CNR nell’indicatore IRAS. Se confrontiamo gli indicatori con gli analoghi del VQR 2015-2019 si può notare come INAF è stato scavalcato da ASI nel voto medio, e anche da CNR nel voto medio normalizzato R. 

Un’altra fonte di dati utili a valutare l’impatto di un istituto scientifico è  Nature Index  (https://www.nature.com/nature-index/), che considera articoli su 82 riviste selezionate. Solo articoli di impatto vengono considerati, come ad esempio le “letters”, oltre che articoli su Nature e Science o altre riviste di grande impatto.   Nature Index usa due indicatori per misurare l’impatto di una istituzione: Counts e Share. Ad ogni istituto viene assegnato 1 Count per ogni articolo che ha tra gli autori almeno un ricercatore di quell’istituto. Share pesa per il numero di autori di ogni istituto nell’authorship di ogni articolo. Ad esempio per un articolo con 10 autori ogni autore riceve uno share di 0.1. Lo share dell’istituto è la somma degli share degli autori che sono affiliati a quell’istituto.

La figura che segue mostra l’andamento dello share dal 2013 al 2021 (nel 2015 Nature Index ha cambiato sistema di misura, ma in quest’anno è stato possibile trovare i dati sia con il vecchio che con il nuovo sistema. Ho quindi normalizzato i dati del 2013 e del 2014 riportandoli alla nuovo sistema di misurazione nel grafico che segue).

Si nota come lo Share di INFN è cresciuto abbastanza regolarmente nel tempo da circa 100 a circa 170, mentre lo Share di INAF è decresciuto da poco meno di 40 fino a poco più di 20. Le oscillazioni nella curva INAF negli anni 2020 e 2021 è possibile dipendano dall’emergenza Covid19. Per una verifica è necessario attendere i dati 2022. Quelli parziali (metà anno), indicano uno Share di 21,78, confermando il cattivo risultato del 2021.

Un terzo metro potenziale per stimare la qualità della comunità astrofisica italiana e di INAF è quello del numero di vincitori di ERC. In questo campo sia l’INAF che la comunità astrofisica italiana in generale hanno sempre performato molto male, ma è evidente che esistono motivazioni più generali e di sistema. Per dati e una discussione si può vedere: https://www.lascienzainutile.it/2021/04/18/11-un-esempio-il-migliore-di-scienza-competition-driven-il-sistema-erc/ . Dall’inizio dell’istituzione del’ERC solo 26 borse nella categoria PE9 sono state portate in Italia su un totale di 404, di cui solo 7 hanno coinvolto ricercatori INAF, 3 dei quali sono migrati in Università dopo aver vinto la borsa. Per confronto, 97 borse sono state portate in UK, 67 in Francia e 57 in Germania.

In conclusione, le due fonti utilizzate per stimare la competitività scientifica di INAF e come questa è cambiata nel tempo (VQR 2015-2019 e Nature Index) suggeriscono che questa è diminuita nel tempo, e che oggi l’INAF è in una posizione medio-bassa in Italia tra i grandi enti di ricerca sia per quello che riguarda la quantità che la qualità della produzione scientifica. La speranza è quindi che il grande afflusso di fondi di questi anni possa rovesciare il trend e rilanciare in quantità e qualità la produzione scientifica di INAF.

Frattali, non frattaglie

Oggi non riesco a dormire. Il sole c’e’, l’ombrellone e l’ombra pure. Addirittura un venticello piacevole invece che l’afa opprimente. Ma niente. Probabilmente il problema e’ il contorno, l’ambiente. Oggi siamo a Bibione, nona fila di ombrelloni, vicino alle docce e ai bagni. Fino a pochi giorni fa Porto Ulisse, quattro famiglie in tutta la spiaggia, mare trasparente tropicale. E’ la prova provata una volta di piu’ di come l’ambiente condizioni gli individui. 

I vicini di ombrellone stanno raccontandosi vicende. Di come la perfida Albione li abbia derubati di un figlio prima e di un nipote dopoi, dato che il figlio e la compagna hanno appena scoperto di essere in dolce attesa, Il figlio era andato oltremanica per imparare l’inglese, poi dato che aveva studiato economia ed era pure bravo gli avevano offerto un lavoro, poco pagato per i loro standard, ma moltissimo per i nostri. E il figlio era rimasto li, dove magari piove (o pioveva) sempre, le citta’ fanno schifo, il cibo neanche a parlarne, ma uno stipendio decente alla fine del mese arriva. Da qui alla generalizzazione: ma quanto costa far studiare un ragazzo? 100-200-300 mila euro? e quando il ragazzo se ne va? tutti questi soldi spesi da stato e famiglie? buttati alle ortiche o appunto rubati. Discussione pure di un certo livello, ma alza il volume del rumore di fondo, non mi fa sentire il mare, e manco la doccia qui accanto. Il che dimostra, come se ce ne fosse bisogno, che l’ambiente viene condizionato dagli individui. 

In termini pomposamente tecnici questa situazione si puo’ descrivere nella seguente maniera: Interazioni al livello “micro”, cioe’ un livello basso, generano un pattern al livello “macro”, un livello piu’ alto, che reagisce all’indietro sulle sotto unita’ del livello “micro”. In biologia evoluzionistica si direbbe: organismi che creano il loro ambiente che influisce sullo sviluppo futuro degli stessi organismi. Siamo nel magico mondo dei sistemi dinamici complessi. In questo mondo un comportamento dinamico ricco e’ generato dalle interazioni tra un grande numero di sotto-unita’. E queste interazioni generano proprieta’ che non possono essere ricondotte al comportamento delle sotto-unita’. O, come ha detto il premio Nobel Phillip Anderson: “more is different”. L’emergenza di queste proprieta’ da livelli bassi e numerosi verso livelli piu’ alti e meno numerosi genera la cosi’ detta invarianza di scala. cioe’ il fatto che non sia possibile determinare la dimensione di un sistema guardandone semplicemente una parte. Un buon esempio e’ il broccolo romanesco. Se ci fate caso, ogni rosetta ha la forma del singolo broccolo, ogni cima ha la forma della rosetta e quindi del broccolo, e cosi’ via. Il broccolo romanesco ha una struttura frattale. Se prendiamo un broccolo, il numero di rosette e’ molto maggiore di uno (un broccolo) e il numero di cime molto maggiore del numero di rosette, e cosi’ via. Cioe’ il numero di strutture piccole e’ sempre molto maggiore di quello delle strutture piu’ grandi. Con piu’ precisione formale, il numero di strutture piccole e’ legato a quello delle strutture piu’ grandi da una legge di potenza del tipo Y=1/X. Non ci sono solamente i broccoli romaneschi che si possono descrivere con leggi di potenza. Queste leggi emergono naturalmente nei sistemi dinamici complessi. Questi sistemi sono formati da tante sotto-unita’ piccole e poche grandi. connesse dalle relazioni di scala descritte sopra. Una incredibile varieta’ di sistemi si comporta in questa maniera, dalle faglie che danno luogo ai terremoti ai neuroni nel mio cervello che sono al lavoro per generare queste parole, ai materiali magnetici, agli insediamenti umani, poche grandi citta’, molte piccole citta’, infiniti villaggi, e cosi’ via. 

E allora, perche’ mai stupirsi del fatto che storicamente la sinistra, o comunque il fronte dei progressisti, e’ composto da una miriade di gruppuscoli, poche aggregazioni medio grandi, una sola organizzazione molto grande? E perche’ stupirsi che ci sia dialettica tra le sotto unita’? che questa dialettica (interazioni) generi un pattern nel livello piu’ alto e piu’ grande, che poi reagisce all’indietro sulle sotto-unita’? Il fronte progressista ha evidentemente una struttura frattale, non e’ una insieme di frattaglie. E il motivo e’ in fondo semplice. Progredire, innovare, e’ complicato, significa rimettersi continuamente in discussione, non dare niente per scontato per inventarsi il futuro. Significa riconoscere l’importanza e la ricchezza della differenza di opinioni. Signifier mettere le forze a fattor comune per far crescere e progredire tutto il sistema, non solo la propria sotto-unita’. Dall’altro lato, conservare e’ piu’ facile, se non altro perche’ si conosce gia’ quello che si vuole conservare (una visione del mondo, soldi, potere, privilegi, poltrone), non c’e’ bisogno di inventarselo.

La frammentazione del fronte progressista e’ vista di solito come uno dei suoi mali incurabili, invece non e’ altro che l’evidenza della complessita’ dinamica di questo sistema. Il problema di questi sistemi e’ proprio che sono dinamici. Cambiano in continuazione, il che rende evidentemente complicato trovare una sintesi duratura. Se la si trova al tempo t0, questa scompare naturalmente al tempo t1.  Possiamo chiamarlo “effetto Turigliatto”. Il problema non e’ eliminare l’effetto Turigliatto, cosa che e’ formalmente e sostanzialmente impossibile, ma compensarlo. Il sistema deve trovare la maniera di convergere verso una auto-organizzazione che ne garantisca sopravvivenza ed evoluzione, fottendo l’effetto Turigliatto. Qui di nuovo viene in aiuto la teoria dei sistemi dinamici complessi, dove si parla di Auto Organizzazione, e Criticità’ auto-organizzata.  In questi sistemi si sviluppano correlazioni a grandi scale grazie all’auto-organizzazione di correlazioni su scale piu’ piccole (feedback). Il feedback e le correlazioni sono l’antidoto alla distruzione del sistema, all’effetto Turigliatto. C’e’ un ulteriore problema pero’. Quello dei tempi scala. Il sistema puo’ convergere verso una criticita’ auto organizzata velocemente o molto lentamente. E se il sistema non e’ isolato ma interagisce con altri sistemi, potrebbe non raggiungere mai l’agognata meta, perche’ nel frattempo le condizioni al contorno sono cambiate. Siccome conservare e’ piu’ facile, i tempi scala con cui i conservatori trovano una sintesi o un compromesso sono in generale molto minori dei tempi scala con cui il sistema complesso progressista puo’ raggiungere l’auto organizzazione. L’unica maniera di accelerare l’operazione e’ far entrare nel gioco un catalizzatore, un evento o una persona, in grado di sintonizzare e accordare velocemente il sistema. Nei sistemi termodinamici ad esempio, qualcuno che regoli la temperatura finemente, così che il sistema riesca a stare sempre vicino ad una transizione di fase. Riusciremo a trovare in tempo questo catalizzatore? 

Il solito formicolio al piede sinistro. Stendo una gamba. Oddio, stavo dormendo? E quindi prima sognavo? Anzi, ero in un sogno dentro un sogno. Accidenti… sarebbe divertente vedere cosa penserebbe Christofer Nolan della situazione onirica del nostro scassato reame..

Sogni

di un pomeriggio di mezza estate

Sento un formicolio al piede sinistro. Che sale verso il polpaccio. Cerco di riattivare la circolazione muovendo le dita impiastrate di sabbia. Non succede niente. Capisco che e’ solo il sole che che sta scottando le gambe, l’ombra si e’ mossa mentre dormicchiavo placidamente, cullato dallo sciabordio delle onde sul bagnasciuga. Di notte dormo poco, invece sulla spiaggia di giorno mi riesce bene, misteri della fisiologia umana. Dormo e sogno.

Faccio un sogno stranissimo. Sogno che un Conte nella sua armatura luccicante sfida il drago che lo tiene prigioniero, ma dopo tutto gli garantisce il desinare tutti i santi giorni, colazione pranzo e cena. Ma il Conte lo fa senza armi vere, solo abbaiando,  giusto per far contenti gli scudieri che lo aizzavano ad azzannare la preda. Non  capisce che dietro di lui c’e una legione di orchi, troll e badanti che non aspettano altro per sguainare lo spadone e trafiggere il drago. Soppiantarlo e provare a creare un Nuovo Ordine. E la Regina Cersette a capo delle orde prima che il drago esali l’ultimo respiro gli chiede consiglio. Il drago, ormai con il sangue che gli ingorga la bocca, biascica: Regina, tu sei potente, ma guardati dai tuoi! Ti tradiranno! ti dico, non buttare a mare tutta la fatica che ho fatto per tenere assieme questo scalcinato reame.. tieniti stretto qualcuno dei miei ciambellani, i tecnici, gli scienziati, che tanto non fanno mai male a nessuno.. il gran ciambellano per la Transizione Ecologica… e poi spira. Mamma mia che cazzate che riesce a generare la mente quando si dorme. 

Poi faccio un sogno ancora piu’ strano.  Sogno che che la Regina in Carrozza si innamora. La principessa e’ sposata da un secolo al Principe regnante Ricerca Applicata, e in questo secolo avevano avuto tante soddisfazioni, tanti bambini assieme agli immancabili problemi che ogni relazione di questo tipo comporta. Il principe che si annoia e fa spesso e volentieri battute fuori luogo, o che peggio cerca conforto sotto altre lenzuola. E questo e’ niente. Che dire dei fratelli perversi o dei figli smidollati, le principesse tristi, i nipoti irriconoscenti. Insomma tutto quello che normalmente succede in ogni famiglia. Ma alla fine si poteva sicuramente dire che le soddisfazioni superavano abbondantemente le delusioni. Irrinunciabile tenere sulle spine e accettare le dimissioni della spocchiosa prima ministra che si credeva lei la Regina! 

E quindi perche’. Perche’ alla sua veneranda eta’ invaghirsi di nuovo. E per di piu’ di uno spiantato, uno di quei Bohemien rimasti nel secolo scorso: Ricerca Fondamentale! Solo il nome suona cosi’ vecchio, cosi’ fuori tempo. Ricerca Fondamentale e’ un tipo che predilige i tempi lunghi o lunghissimi, e’ come il Carrubo, quando pianti un seme poi te ne devi dimenticare, ci possono mettere venti anni prima che germogli. Il frutto del Carrubo poi. Matura in un anno intero, una eternità in confronto alla ciliegia o la pesca. Sulle piante trovi i frutti dell’anno passato maturi assieme a quelli dell’anno in corso ancora acerbi, allappanti. E cosa ci vuole mai fare la Regina in Carrozza coll’umile Carrubo ai tempi di tiktok? Si fosse innamorata di Kabhane Lame si capirebbe. Ma e’ cosi’, nei sogni succedono cose che nella nella realta’ sono sostanzialmente impossibili. E’ come se la funzione d’onda di un qualche processo nella realta’ segua correttamente le probabilita’ e collassi solo nell’evento piu’ probabile, mentre nel sogno le probabilita’ sono tutte uguali e la funzione d’onda collassa a raglio, o, usando una citazione piu’ colta, come se si premesse in maniera spasmodica il pulsantone rosso del motore a improbabilita’ infinta. E in una di queste pigiate la Principessa in Carrozza si innamora del Carrubo Ricerca Fondamentale. E chi diavolo fa ricerca fondamentale nel nostro piccolo e bistrattato regno? C’e’ il Marchese del Piglio Tutto Io: io so’ io e voi non siete un cazzo! e c’e’ il Conte Mascetti-Tafazzi In Su per il Monte, l’astronomo reale. Il primo e’ e sempre resterà uno scapolo d’oro. Il secondo soggetto e’ peculiare anche nel disastrato reame, dove la peculiarità e’ la regola. Di giorno il Conte in Su per il Monte declama massime incomprensibili pure per per se stesso, fa progetti faranoici quanto improbabili (pure nel contesto del sogno, dove appunto il motore e’ quello ad improbabilita’ infinita), di notte si duole perche’ continuamente distrugge quello che di buono pur improbabilmente di giorno e’ riuscito a fare. E’ chiaro che la Regina e’ attratta da questo straordinario essere fuori tempo che e’ il Conte in Su per il Monte. E’ il fascino del perdente nato dopo tutto, niente di nuovo sotto il sole e manco nei sogni. 

La Regina e’ risoluta, vuole il Carrubo in Su per il Monte con tutte le sue, residue, forze. Scrive lettere, apparecchia tavolate imbandite con ogni ben di Dio. Ma soprattutto promette doti favolose. E il Principe Regnante? Rimane li dove e’, la Regina dopo tutto puo’ istituire nello scassato regio la poligamia. Lo aveva fatto pure il re Mormone dopo tutto nel regno d’Oltre Mare. 

Questo matrimonio sa’ da fare! Ma quando? questo e’ il problema. L’uscita scriteriata del Conte nell’armatura luccicante ha provocato il draghicidio, e con questo la possibilita’ di un Nuovo Ordine. La Regina e’ preoccupata, non sara’ mai che nel Nuovo Ordine salta tutto? I denari, non e’ che tutti quei denari promessi per la Ricerca Applicata e pure per la Ricerca Fondamentale evaporano come neve al sole? Ci siamo gia’ passati dopo tutto… riforme dei finanziamenti della Ricerca gettate alle ortiche per trovare 300 milioni per gli AutoFerroTrasportatori… era un altro sogno di un altro Agosto di tanti anni fa.. E quindi… non e’ che sara’ meglio anticipare i tempi? ma come… il rituale prevede un corteggiamento di almeno 12 mesi, e il tempo necessario a che il ciambellano …

Aio!!!!! un bruciore intenso sempre dal piede sinistro. Ma non e’ il sole questa volta, il bruciore e’ piu’ localizzato e intenso. Una vespa dispettosa ha pensato bene si inserire il suo spadone, ops pungioglione nel drago che ha visto nel tallone del mio piede. Mi alzo di scatto e il sogno evapora come neve al sole. Meno male, era troppo strano. E quando i sogni sono troppo strani mi rimane una acidita’ nello stomaco. Non so perche’. Butto via la vesta,  mi massaggio il polpaccio e lo immergo nell’acqua salata. Torno sotto l’ombrellone e apro Dagospia: Meloni preoccupata chiama Draghi: https://www.dagospia.com/rubrica-3/politica/nemici-mi-guardo-io-miei-alleati-mi-guardi-dio-giorgia-meloni-318900.htm

12. La tempesta perfetta

Esiste una crisi del modello occidentale per la ricerca di base?

Il modello occidentale per la ricerca di base è il risultato di un lungo processo evolutivo cominciato nel 1600 con l’introduzione del metodo scientifico da parte di Galileo, e con la costruzione delle Università in Europa, dove insegnamento e ricerca si fondono nello stesso luogo fisico e sono portate avanti dagli stessi scienziati. Concetto ripreso e portato oltre oceano alla fine del diciannovesimo secolo da Abraham Flexner, che rifondò seguendo questo schema le medical schools americane. Flexner andò oltre, codificando la struttura e la finalità di un istituto di ricerca di base, e mettendo in pratica queste idee fondando l’Institute of Advanced Studies di Princeton. Sulla scia di Flexner, Vannevar Bush a cavallo della seconda guerra mondiale getta le fondamenta di quella che è la moderna struttura di ricerca di base statunitense, tra le altre cose contribuendo a creare la National Science Foundation, con la missione di promuovere il progresso della scienza utilizzando capitali pubblici. Il modello occidentale per la ricerca di base ha ottenuto strabilianti successi, e certamente il mondo non sarebbe oggi quello che è senza l’affermazione di questo modello (Capitolo 1).

Che ovviamente nel tempo si è modificato, adattandosi ai momenti storici. Una delle domande che ci siamo posti nel prologo è come si è modificato il modello, e se l’odierna variante è davvero la più adatta ed efficiente a promuovere un progresso paragonabile a quello esponenziale a cui siamo stati abituati fin ora. In altre parole, stiamo osservando la fine del progresso esponenziale, e quindi indizi di una crisi del modello occidentale per la ricerca di base?

Nei capitoli precedenti abbiamo incontrato più di un indizio di questo tipo. Abbiamo constatato che il sistema della ricerca oggi in Italia e nel mondo occidentale soffre probabilmente del problema di una creatività limitata. Più fenomeni, spesso correlati tra loro in maniera complicata, concorrono a generare quella che si può definire una tempesta perfetta. 

Primo. A partire dagli anni ‘90 si assiste ad una decrescita dell’intensità di spesa pubblica in ricerca e sviluppo in tutto il mondo occidentale (Capitolo 2). In UK la decrescita comincia addirittura un decennio prima. Allo stesso tempo, il numero di ricercatori è continuato a crescere, come anche la frazione di fondi destinati a grandi progetti. Di conseguenza, in media, i fondi a disposizione di ogni ricercatore sono diminuiti sostanzialmente in tutta Europa dagli anni 80-90 ad oggi (sono rimasti quasi costanti negli Stati Uniti, Capitolo 3). La quantità di fondi destinati a grandi progetti è però cresciuta ovunque, e quindi i fondi a disposizione della ricerca indipendente per ricercatore sono diminuiti e molto in tutto il mondo occidentale. Questo ha sviluppato un effetto di selezione naturale tra i ricercatori. 

Secondo. Il trend descritto al punto precedente ha prodotto uno sbilanciamento rilevante verso un modello di scienza competitiva (Capitolo 10). Una delle conseguenze è che per trovare un posto di lavoro, per fare carriera, per ottenere fondi di ricerca è necessario pubblicare il più possibile, e per fare questo naturalmente si tendono ad affrontare problemi facili e meno rischiosi. E soprattutto si tende a lavorare in settori alla moda, che possano garantire molte pubblicazioni e citazioni, e che garantiscano di essere almeno riconosciuti dalle commissioni d’esame o da quelle di selezione dei fondi. Questo ha limitato e limita fortemente la ricerca indipendente, la spinta a seguire sentieri tortuosi e meno battuti.

Terzo. Il sistema di reclutamento nel mondo occidentale è sbilanciato verso posizioni a termine, pagate o da grandi progetti o da grants ottenuti da ricercatori più senior (Capitolo 3). Solo uno ogni 7-30 studenti di dottorato di ricerca avrà accesso ad una Università o a un ente di ricerca pubblico, e con uno stipendio non competitivo con il privato. Il risultato è che i migliori studenti non sceglieranno le Università o gli enti pubblici di ricerca per la loro carriera. Quelli che rimarranno nel sistema non riusciranno a trovare un impiego fisso prima dei quaranta anni. Giovani scienziati oggi lavorano su contratti a tempo determinato per lo più su idee che non sono le loro, ma dei loro datori di lavoro. Hanno poche opportunità per sviluppare linee di ricerca indipendenti. Gli anni che sono ritenuti i più fruttiferi dal punto di vista della creatività sono invece destinati a trovare una occupazione fissa e a lavorare per il beneficio dei loro datori di lavoro, che potranno poi fregiarsi di tassi di pubblicazione alti, fare ulteriore carriera, trovare ulteriori fondi per assumere nuovi post-doc.

Quarto. Il sistema della Big Science naturalmente implica centralizzazione delle risorse, specializzazione e limitata indipendenza (Capitolo 5). Migliaia di ricercatori, giovani e vecchi, lavorano su concetti e idee sviluppati da una minuscola frazione di ricercatori senior. La cosa peggiore è però che l’attività della maggior parte dei ricercatori è concentrata in ambiti limitati, molto specializzati, e questo difficilmente permette a giovani ricercatori di sviluppare tutti gli skill necessari per poter prima ideare e poi costruire un esperimento in maniera indipendente. Senza questa essenziale gavetta, è veramente poco probabile che un ricercatore riesca poi in futuro a trasformarsi nel dirigente in grado di ideare e condurre il prossimo grande progetto.

Le conseguenze di questi fatti sono state discusse a lungo nella letteratura specializzata, ad esempio si può consultare il saggio Is American Science in Decline?[1], dove accanto a note certamente positive vengono anche messi in luce diversi sintomi negativi simili a quelli menzionati sopra. Già una dozzina di anni fa la National Academy of Science degli Stati Uniti pubblicava un report molto preoccupato su questi problemi[2]

Ho già ricordato come alcuni fisici teorici ritengono che negli ultimi 30 o 40 anni i progressi nella fisica teorica siano stati per lo più incrementali, neanche lontanamente paragonabili a quelli dei 40 anni o 80 anni precedenti. Questa affermazione è sostenuta anche dall’analisi dei premi Nobel in fisica negli ultimi 60 anni. Tra il 1961 e il 1990 il 50% dei premi Nobel in fisica è andato a ricerche di fisica teorica e di fisica delle particelle, il 3% a ricerche di astrofisica e il 46 % a ricerche di struttura della materia. Nei 30 anni seguenti, dal 1991 al 2020 la frazione di Nobel in fisica teorica e particelle si è dimezzata, totalizzano il 25 % di tutti i premi Nobel in fisica. La frazione di Nobel a ricerche di astrofisica è aumentata tantissimo, raggiungendo il 19% (non si puo’ non notare che 3 degli ultimi 4 anni hanno premiato ricerche di astrofisica (Genzel, Ghez e Penrose per ricerche sui buchi neri nel 2020, Mayor e Queloz per la scoperta dei pianeti extrasolari e Peebles per ricerche in cosmologia, Weiss, Barish e Thorne per l’osservazione delle onde gravitazionali). Il 56% dei Nobel in fisica infine e’ andato a ricerche di struttura della materia negli ultimi 30 anni. 

Certo si può sicuramente sostenere che, al contrario della fisica teorica, campi come la genetica molecolare o l’information technology stanno vivendo una fase di sviluppo eccezionale, e che quindi non sia la Scienza nel suo complesso a vivere una crisi, ma forse solo un campo ristretto. Credo però che non sia molto saggio sottovalutare i sintomi esposti nei capitoli precedenti e riassunti qui sopra. Sintomi che, come in tutte le malattie, richiedono prima una diagnosi e poi un’azione. 


[1] Is American Science in Decline? 2012, Xie & Killewald, Harvard University press

[2] Rapporto della National Academy of Science statunitense:  Rising Above the Gathering Storm, 2007

11. Un esempio, il migliore, di scienza competition-driven: il sistema ERC

L’European Research Council (ERC) è stato fondato nel 2007 con lo scopo di finanziare ricerca di punta in Europa, in particolare ricerca ad alto rischio ma potenzialmente ad altissimo ritorno (high-risk/high-gain). Ricercatori di tutte le discipline possono applicare al programma per intraprendere ricerche alla frontiera della conoscenza, con il solo vincolo di dover lavorare in uno dei paesi dell’Unione Europea o in paesi associati. I ricercatori possono competere per quattro livelli, Starting, Consolidator e Advanced grant, in funzione della loro anzianità, e Synergy dove sono finanziate ricerche interdisciplinari presentate da due o tre Principal Investigator (PI). I progetti sono selezionati da commissioni di pari (peer review panels) sulla base dell’eccellenza del progetto e del PI che lo ha presentato. I progetti di ciascun livello sono divisi in 25 peer review panels, che fanno parte di tre macro-aree: Scienze della Vita, Scienze Fisiche e Ingegneria, Scienze sociali e umane. Dulcis in fundo, il livello di risorse messo a disposizione è altissimo, 13.1 miliardi di Euro per il periodo 2014-2020, che saliranno a circa 16 miliardi di Euro nel periodo 2021-2027.

Sulla base dei tre indicatori citati sopra l’ERC è probabilmente il modello di competition-driven science migliore al mondo. Se vogliamo avere un’idea dell’impatto della scienza competition-driven, è quindi naturale chiedersi se gli alti scopi che sono alla base della costituzione dell’ERC siano stati poi effettivamente raggiunti, o comunque quale sia l’impatto sui paesi Europei di un investimento così cospicuo su ricerca di base. 

Il sistema ERC stesso nel corso degli anni si è posto il problema di verificare quali siano i risultati del programma, sia da un punto di vista quantitativo che qualitativo, usando lo stesso approccio. Nel 2015 ERC pubblica il report, Comparative scientometric assessment of the results of ERC funded project[1], nel quale cerca di rispondere, in maniera quantitativa, a tre questioni fondamentali:

  1. Il sistema ERC basato sulla peer review è davvero in grado di selezionare i migliori candidati tra quelli che hanno sottomesso una proposta?
  2. I fondi investiti dall’ERC sui candidati vincenti hanno aiutato a migliorare la produzione scientifica e l’impatto dei ricercatori vincenti?
  3. Il sistema ERC funziona meglio o peggio di altri sistemi di finanziamento di ricercatori europei o statunitensi?

La prima domanda viene affrontata confrontando la produzione scientifica dei vincitori di un ERC con quella di chi ha presentato domanda ma non è stato selezionato. I ricercatori non selezionati sono divisi in due gruppi, quelli che hanno avuto accesso al secondo livello di selezione, e quelli che sono stati respinti direttamente al primo livello. Analizzando i risultati degli anni dal 2007 al 2011 inclusi il risultato è che in media i vincitori di un ERC hanno una migliore produttività sia di chi è stato ammesso al secondo livello di selezione ma non finanziato, sia di chi è stato escluso direttamente al primo livello. Questo però non è vero per tutte e 25 le aree di ricerca in cui è diviso il programma ERC. Per sette aree di ricerca i ricercatori con la migliore produttività sono quelli esclusi al secondo livello e per una area addirittura quelli esclusi al primo livello (scienze sociali e umani, quinta area). Non posso non notare che l’area di ricerca che mi riguarda (Astronomia e Astrofisica, PE9) è tra quelle per le quali i ricercatori con la migliore produttività non sono i vincitori ma quelli esclusi al secondo livello di selezione.  

La seconda domanda viene affrontata valutando la produzione scientifica dei vincitori di un ERC prima e dopo la vincita. Mentre il numero di lavori pubblicati dopo la vincita di un ERC grant è sempre maggiore di quelli pubblicati prima, l’impatto dei lavori pubblicati dopo la vincita non è significativamente maggiore dell’impatto dei lavori pubblicati prima. La conclusione che onestamente gli autori dello studio raggiungono e scrivono nelle conclusioni è che “… i dati bibliometrici non forniscono evidenza di un impatto significativo del finanziamento ERC sulla produzione scientifica dei vincitori sia da un punto di vista quantitativo che qualitativo”.

La terza domanda viene affrontata confrontando la produzione scientifica dei vincitori di un ERC con quella dei vincitori di grant da parte di altre agenzie ed enti di finanziamento europei e statunitensi. Il risultato è che la produttività dei vincitori di ERC nella macro-area Scienze Fisiche e Ingegneria è migliore di quella dei vincitori di grant della National Science Foundation (NSF) statunitense, mentre per la macro-area Scienze della vita la produttività dei vincitori di ERC è simile a quella dei vincitori di grant del National Institute of Health (NIH) statunitense, e minore di quelli dell’Howard Hughes Medical Institute.

Nel 2018 l’ERC ha pubblicato il rapporto Qualitative evaluation of completed projects funded by the ERC[2]dove si analizzano i risultati di 155 progetti ERC completati, e si vuole valutare se questi progetti hanno raggiunto lo scopo di produrre scienza di alto livello. Ai valutatori è stato chiesto di raggruppare i progetti in quattro categorie: 1) scientific breakthrough; 2) avanzamento molto significativo; 3) contributo incrementale; 4) nessun contributo apprezzabile. Il risultato globale è stato che il 25% dei progetti è stato valutato nel grado migliore, il 48 % nel secondo grado, e il 26% nel terzo grado (il rimanente 1% non ha prodotto risultati apprezzabili).  

E’ necessario sottolineare e commentare i risultati oggettivi del primo report. Per farlo, è utile contestualizzare il discorso e arricchirlo di qualche altro dato, sempre fornito da ERC stesso. Durante il ciclo Horizon 2020 (2014-2020) sono stati assegnati 7567 grants (mancano al totale solo gli advanced grants 2020, la ragione sarà chiara nel seguito). Di questi, 835 sono andati in Francia, 1208 in Germania, 1367 nel Regno Unito e 426 in Italia. Tradotto in Euro, significa che circa 1,4 miliardi di Euro sono andati in Francia, circa 2 miliardi sono andati in Germania, circa 2,3 miliardi di Euro sono andati in UK e solo 730 milioni di Euro sono venuti in Italia. Il differenziale con la Francia o la Germania, tra 700 milioni di Euro e un miliardo di Euro corrisponde piu’ o meno a tutti i fondi investiti in Italia da MIUR prima e dal MUR poi nei progetti PRIN. O circa 100-130 milioni di Euro l’anno, ovvero tra il 6% e il 10% del Fondo di Funzionamento Ordinario di tutti gli enti di ricerca in Italia. Per non rischiare di parlare di cose che conosco poco mi limiterò a discutere solamente dati relativi alla macro-area di Scienze Fisiche e Ingegneria (PE) o alla sottosezione di Astronomia e Astrofisica (PE9). Dal 2007 al 20197 inclusi sono stati assegnati in PE un totale di 4418 grants, 2079 starting, 1003 consolidator, 1336 Advanced. Per PE9 i numeri sono 340 grants in totale, 139, starting, 92 Consolidator, 109 advanced. La tabella che segue riporta la divisione dei grant per nazione.

 ItaliaFranciaGermaniaUKOlandaSpagnaTot
Proposte PE nel paese46384338493164951844322638818
Vincitori PE nel paese2616436037963342524418
% vincitori PE/ proposte5.614.812.212.27.67.811.4%
% vincitori  PE nel paese 5.914.613.618.07.55.7 
Proposte PE9 nel paese2963753847821612002957
Vincitori PE9 nel paese215844873412340
% vincitori PE9 / proposte7.115.411.411.121.16.011.5%
% vincitori PE9 nel paese6.217.112.925.610.03.5 

La prima costatazione che si può fare è molto ovvia. Il sistema ERC è davvero un sistema competitivo! In media solo 1 proposta su 9 riesce ad arrivare al finanziamento.

L’Italia è riuscita ad accaparrarsi solo il 5.9 % dei grant distribuiti in PE (6.2% in PE9), una frazione esattamente la metà della media, e circa 2-3 volte minore di quella di Francia, Germania e UK. Il numero totale di proposte sottomesse è stato però simile a quello di Francia e Germania, e solo poco minore a quello delle proposte UK. Il che è di per se una cosa rimarchevole, dato il minor numero totale di ricercatori in Italia rispetto a queste nazioni, vedi Capitolo 3.

E veniamo agli Advanced Grant  2020. In questa tornata nella categoria PE, Physics & Engineering sono stati assegnati 93 grant (da circa 2Meuro l’uno, quindi un totale di circa 180 milioni di euro. Di questi 93 Grant 18 sono andati in Germania, 14 in Francia e 17 nel Regno Unito). E in Italia? L’Italia non c’e’. ZERO grant italiani. Cioe’ mentre nei paesi citati sono confluite cifre dell’ordine di 20-30 milioni di euro per paese solo nel 2020 e solo per questo programma, in Italia non è arrivato neanche un centesimo. Possibile?

In fisica in generale, e anche in astrofisica e fisica dello spazio, l’impatto e la rilevanza della comunità italiana, misurato come articoli e citazioni su riviste con referee, è simile a quello dei ricercatori Francesi, e poco minore di quello dei ricercatori Tedeschi e del Regno Unito, certamente non di fattori 2-3. E’ necessario quindi spiegare in un altro modo la apparente minore capacità italiana di accedere ai finanziamenti ERC rispetto ai colleghi Francesi, Tedeschi e del Regno Unito. Ci sono almeno tre aspetti che vanno considerati a questo riguardo. 

Il primo è che i numeri in tabella si riferiscono ai vincitori che eleggono come loro sede di ricerca una data nazione. E Il numero di vincitori italiani che elegge come sede di lavoro un istituto o università straniero è maggiore del numero di vincitori stranieri che elegge come sede un istituto o una università italiana. Ad esempio, nella lista Advanced Grant 2020 ci sono 6 italiani, che però hanno scelto una università o un istituto fuori dall’Italia per svolgere le loro ricerche. Questo fattore incide per circa il 20-50%, e quindi non spiega completamente differenze del 200-300%.

Il secondo elemento da considerare è la composizione delle commissioni di valutazione. Per fare un esempio, tra il 2008 e il 2019 ci sono state 12 commissioni di valutazione per il settore PE9 Avanced Grant per un numero complessivo di 145 “sedie”. Il numero complessivo di ricercatrici e ricercatori coinvolti è stato 57, e tra questi solo 3 sono italiani, che lavorano in Italia. Ma il dato più importante probabilmente è un altro. Il ricambio medio tra una commissione e la seguente è stato del 28%, cioè di circa 3 persone su una commissione di 11-12 membri.  In conclusione, tra poche e pochissime persone analizzano e giudicano le proposte, e queste persone sono state per lo più le stesse negli ultimi 12 anni (almeno per quello che riguarda gli advanced grant PE9). Un sistema che ricorda molto l’oligarchia. E in questo sistema evidentemente gli italiani non brillano particolarmente per capacità di vincere grant. 

Quale che sia la ragione per cui i ricercatori italiani riescono a portare nei nostri istituti finanziamenti 2-3 volte minori dei colleghi di questi paesi quando sottomettiamo un numero analogo di proposte e quando l’impatto scientifico dei nostri lavori e sostanzialmente simile a quello dei nostri colleghi europei, mi sembra evidente che sia assolutamente necessario lavorare per ridurre ed eliminare questa penalità, che è utile ripetere si aggira tra le molte centinaia di milioni di euro e il miliardo di euro in 7 anni e che si aggiunge beffardamente al fatto che in UK, Francia e Germania il finanziamento nazionale per la ricerca è maggiore di quello italiano. Il problema è probabilmente di sistema, sia della nostra limitata capacità di far attivamente parte dell’oligarchia di cui sopra, sia della mancanza di supporto attivo ed efficace ai ricercatori che scrivono proposte (un supporto che specie nel Regno Unito è fortissimo, ed è forte anche in Francia e Germania). Investire di più e meglio per aumentare quantità e qualità del supporto alle proposte italiane sarebbe una strategia win-win sia per il Ministero dell’Università e della Ricerca, sia da parte delle Università e degli enti di ricerca, perché’ moltiplicando le entrate esterne potrebbero meglio e più efficientemente investire i limitati fondi interni (come avviene nel Regno Unito, vedi capitolo 2). 

Che l’Italia paghi una grossa penalità (100-130 milioni di euro l’anno) nel contesto dei finanziamenti ERC è un fatto facilmente  accertabile, basta guardare i numeri. Perché’ il MUR, le Università e gli enti di ricerca non intervengano con politiche efficaci per invertire la tendenza è molto più difficile da capire, non si possono usare semplicemente i numeri. Voglio lo stesso azzardare un paio di possibilità. Per quello che riguarda il MIUR prima e il MUR oggi è un fatto che i ministri che si sono succeduti negli ultimi 15 anni per vari motivi sono riusciti a rimanere nella posizione solo per poco tempo, uno o due anni. Mettere in pratica una politica nazionale efficace di supporto ai ricercatori richiede probabilmente molto più tempo. Purtroppo l’Università e la ricerca in Italia sono cenerentole del gran ballo della politica, e i problemi esposti in questo capitolo sono solo una parte di quelli che affliggono ogni neo ministro o ministra all’insediamento. Circa gli enti di ricerca non voglio parlare di quelli che non conosco direttamente e quindi posso esprimere un parere solo sull’INAF nel quale lavoro. Il supporto nella preparazione delle proposte è solo amministrativo, molto lontano come quantità e qualità da quello che succede negli istituti e nelle Università europee. Investire per creare un supporto adeguato è ovviamente possibile ma non è mai stato fatto con convinzione. Ma c’è di peggio. Quello che normalmente succede nel mio istituto e le future vincitrici e vincitori che lo indicano come  istituto di riferimento in fase di proposta, poi una volta portato a casa il grant sistematicamente migrano verso una Università. Il motivo è banale, ed è la molto migliore possibilità di carriera nelle Università. E’ sicuramente vero che questo è un problema comune anche agli altri enti di ricerca italiani, ma pure vero che nel mio istituto non si è fatto sistematicamente nulla negli anni per attrarre i vincitori di ERC, non è semplice ma possibile, la realtà è che questa non è mai stata una priorità.

In tutti i casi, a prescindere dalla capacità o incapacità italica, volontà o disinteresse nostrano ad attrarre finanziamenti ERC, un maggiore ricambio delle commissioni valutatrici non può che essere utile, e quindi auspicabile, anche per garantire che temi di ricerca nuovi non vengano penalizzati da panel conservatori, e quindi che il sistema ERC davvero riesca a finanziare per lo più progetti high-risk/high-gain.


[1] https://erc.europa.eu/sites/default/files/document/file/ERC_Bibliometrics_report.pdf

[2] https://erc.europa.eu/content/qualitative-evaluation-completed-projects-funded-european-research-council-2018

Post completo

Prossima pubblicazione: 12. La tempesta perfetta: esiste una crisi del modello occidentale per la ricerca di base?

10. Una nuova forza propulsiva per la ricerca

Gli esempi discussi nei due capitoli precedenti fanno parte della scienza guidata da immaginazione, curiosità, e ambizione di conoscenza. Entrambe sono partiti dall’ambizione di risolvere un problema scientifico cruciale, e hanno immaginato e perseguito un percorso, magari anche lungo e complicato, per raggiungere lo scopo. Accanto alle tradizionali forze propulsive per la ricerca da qualche decennio una nuova forza sta emergendo con prepotentemente: la competizione.

I ricercatori oggi competono per i dati, competono per i fondi, competono per ottenere una posizione nelle Università o negli Istituti di Ricerca e nelle aziende private, competono per migliorare questa posizione. La loro stessa semplice attività è determinata dalla vittoria o meno nella competizione.

I motivi dell’affermarsi della competizione nella ricerca sono molti, non ultimo il fatto che mentre il numero di ricercatori cresce molto, le risorse a loro disposizione crescono meno (almeno in Europa, come abbiamo discusso nel capitolo quarto). Per di più la maggior parte delle risorse sono assorbite dai Grandi Progetti, e quindi quando si calcola il costo medio di un ricercatore, questo non rappresenta il volume di finanziamenti di cui ogni ricercatore dispone. Questo volume è molto minore, una volta eliminata dalla media il costo enorme dei Grandi Progetti. In ogni ecosistema di questo tipo dove aumenta il numero degli individui e diminuiscono le risorse per individuo, si genera una lotta Darwiniana per la sopravvivenza, solo la specie più adatta viene selezionata e sopravvive. Ma il ricercatore più adatto a questo sistema, è anche quello che produce i risultati più importanti? In altre parole, siamo sicuri che il modello competition-driven sia davvero quello migliore per fare scienza utile?

Il ricercatore che sopravvive meglio nel sistema competition-driven è quello che in media pubblica un numero maggiore di articoli, e che riesce ad attrarre il numero maggiore di citazioni. Questo succede quando un ricercatore lavora su problemi facili, oppure in un grande progetto o in un settore alla moda, nel cosi detto mainstream, che attira l’attenzione di una platea il più grande possibile.

La necessità di competere per fondi e per carriera, produce quindi la necessità di pubblicare freneticamente, privilegiando i problemi semplici e alla moda, che sono più facilmente quelli incrementali nel diagramma di Kalbach presentato nell’ottavo capitolo. Questo significa che vengono sistematicamente tralasciati o comunque poco investigati i problemi più complessi e quindi rischiosi, dal punto di vista della sopravvivenza nell’ecosistema ricerca. I problemi che richiedono troppi anni di lavoro, e quelli lontani dalla moda. Non riesco qui ad evitare di citare Gianni Rodari:

È difficile fare le cose difficili

parlare al sordo,

mostrare la rosa al cieco.

Bambini, imparate a fare le cose difficili:

dare la mano al cieco,

cantare al sordo,

liberare gli schiavi che si credono liberi.

Ecco, gli scienziati dovrebbero fare come i bambini, imparare sempre a fare le cose difficili! E invece il modello di ricerca competition-driven li invoglia a fare le cose meno rischiose e più semplici. Il risultato netto è che la ricerca sta diventando sempre meno un risky bussiness. Un detto popolare recita: sbagliando si impara, concetto talmente semplice e naturale che viene ripreso persino dal Maestro Yoda quando recita: The greatest teacher failure is[1]. E invece i ricercatori si possono permettere di sbagliare pochissimo o niente, e quindi di imparare corrispondentemente poco. Un Grande Progetto è fondamentale che non fallisca, è costato enormemente, sia in termini di fondi che di risorse umane. Un fallimento metterebbe a rischio l’intero settore di ricerca collegato a quel progetto. Dall’altro lato, neanche una semplice ricerca, per quanto incrementale, di un semplice ricercatore è bene che non fallisca nel sistema competition-driven nel quale viviamo, perché’ genererebbe meno pubblicazioni meno citazioni e quindi meno possibilità di affermazione e meno fondi.

Competizione per fondi significa orientare il finanziamento verso progetti specifici, tipicamente di breve durata (tre, cinque anni). Questo implica poi finanziare posizioni precarie, della stessa durata, spesso pagate male, e sempre molto volatili, un concetto tanto semplice e chiaro che viene espresso in autorevoli pubblicazioni[2] e saggi[3].

Il premio Nobel Saul Perlmutter ha di recente affermato: “Non avrei potuto effettuare le mie ricerche che hanno portato al premio Nobel nell’attuale sistema di finanziamento della ricerca”. L’altro premio Nobel Kip Thorne aggiunge: “Oggi non sarebbe facile convincere il governo a finanziare un progetto come LIGO, la politica non vuole più rischiare grandi avventure scientifiche”.

Che la moda abbia un peso straordinariamente forte lo si vede molto bene in contesti dinamici come quello degli Stati Uniti. Negli anni 80’ e 90’ la stragrande maggioranza delle posizioni in fisica teorica nelle Università statunitensi è andato a teorici delle Stringhe; all’inizio degli anni 2000’ una grande frazione di posizioni osservative in astrofisica era legato ai Gamma Ray Burst. Dieci anni dopo la maggior parte delle posizioni in astrofisica era relativa a studi di pianeti extrasolari. Oggi la moda è cambiata ancora, e la frazione maggiore di posizioni negli Stati Uniti è associata all’astrofisica multi-messaggera di cui ho raccontato nel capitolo precedente. Seguire progetti alla moda garantisce pubblicazioni, citazioni, ma soprattutto garantisce il riconoscimento di chi quei progetti li ha inventati, gli scienziati più senior. E questo riconoscimento si può tradurre in un posto di lavoro e in finanziamenti, perché le commissioni di concorso e le commissioni di valutazione dei progetti sono sempre formate appunto dagli scienziati più senior (e spesso con scarso ricambio). Questo porta naturalmente a un meccanismo di auto-replica dell’esistente, che tende ad esclude il diverso, la persona creativa che voglia seguire semplicemente le proprie intuizioni, rischiare, e magari anche fallire. Se Einstein nel 1900 dovette andare a lavorare all’ufficio brevetti elvetico per seguire le sue intuizioni e la sua ispirazione, oggi non è detto che troverebbe lavoro nemmeno li (o che comunque riuscisse a pubblicare e a farsi leggere dal mainstream). Il premio Nobel per la medicina del 2016 Yoshinori Ōsumi sosteneva: “Non mi piace molto la competizione, e penso che l’essenza della scienza – ciò che la rende davvero così molto divertente — è proprio fare ciò che gli altri non stanno facendo, piuttosto che fare ciò attorno al quale tutti gli altri si stanno affollando e affannando. Un concetto simile a quello espresso dall’altro premi Nobel (per la fisica questa volta) Richard Feynmann, che sosteneva: la scienza è lo scetticismo organizzato nei confronti dell’opinione degli esperti. E questa mi sembra davvero la migliore definizione possibile di scienza.


[1] The last Jedi, 2017

[2] OECD Science & Innovation Outlook 2016

[3] Is American Science in Decline? (2012)

Post completo

Prossima pubblicazione: 11. Un esempio, il migliore, di scienza competition driven: il sistema ERC

9. Le forze propulsive per la ricerca

Nella storia le maggiori forze propulsive per la ricerca sono state l’immaginazione, la curiosità e l’ambizione di scoperta. Einstein sosteneva come l’immaginazione fosse addirittura più importante della conoscenza stessa. Feynman definiva la creatività scientifica come “immaginazione in una camicia di forza”. Ma la definizione forse piu’ bella del potere creativo dell’immaginazione viene da un non scienziato: Paul Mc Cartney. In una delle sue canzoni più belle e famose scrive: “but the fool on the hill sees the Sun going down, and the eyes in his head see the world spinning round”. E’ l’immaginazione, gli occhi nella testa dello sciocco (ma non tanto..) sulla collina, che riescono a tradurre una osservazione pure bellissima ma banale, il sole che tramonta, in un fatto sorprendente, il sole tramonta perché la Terra gira su se stessa. 

L’immaginazione si fonde con la curiosità nella famosa affermazione del Duca di Wellington: ho speso tutta la mia vita a cercare di indovinare cosa ci fosse dall’altra parte della collina. Di più: tutta l’arte della guerra è indovinare cosa ci sia dall’altra parte della collina. Wellington è stato un generale tanto famoso quanto bravo e fortunato, non certo uno scienziato. La sua era l’arte della guerra, non quella di sfogliare il libro della natura e dell’Universo. Nondimeno, la stessa affermazione di Wellington la si può usare anche a proposito della scienza: tutta l’arte della scienza è capire cosa c’è dall’altra parte della collina.

E infine l’ambizione, o meglio l’ambizione di conoscenza, la forza che ci porta a voler capire come funziona la Natura. James Cook è probabilmente quello che ha descritto meglio il concetto. Durante l’esplorazione dell’Antartide scriveva nei suoi diari: “L’ambizione mi porta non solo più lontano di quanto sia stato raggiunto da altri uomini prima di me, ma tanto lontano quanto io penso sia possibile per un uomo andare”.  Non vi suona familiare? Non e’ un caso che la frase di Cook sia stata ripresa poi negli anni 60’ come incipit di una famosa serie di fantascienza, Star Trek.

Tutte le ricerche e le scoperte presentate nei capitoli precedenti sono state stimolate dall’immaginazione, dalla curiosità e dall’ambizione. Non è un caso che l’ESA, l’agenzia spaziale Europea, che ha immaginato prima e realizzato poi Rosetta, per celebrare la missione abbia realizzato un film che si intitola per l’appunto “Ambition”[1]. L’immaginazione la curiosità producono l’ideazione di un esperimento, o meglio un programma, guidati solamente dall’ambizione di risolvere un problema scientifico. Programmi così ideati possono ambire a diventare “moonshot”. Mi piace spiegare meglio questo punto cruciale raccontando due esempi illuminanti. Il primo è il percorso che ha ideato e poi seguito Riccardo Giacconi, e che lo ha portato alla scoperta del fondo cosmico in raggi X prima, e alla sua spiegazione poi. Scoperta che gli ha valso il premio Nobel per la Fisica nel 2006. Il secondo esempio è più recente, ed è culminato il 10 aprile 2019 nella divulgazione della prima istantanea dell’orizzonte degli eventi di un buco nero (super-massiccio in questo caso, qualcosa di simile al Gargantua di Interstellar). Le interessate e gli interessati possono trovare questi due racconti qui (versione completa del post)


[1] https://www.youtube.com/watch?v=H08tGjXNHO4


Prossima pubblicazione: 30 agosto 2020. 10. Una nuova forza propulsiva per la ricerca

Intermezzo: Back to the Future

Dicembre 2019. Dopo molto tentennare mi decido a pubblicare queste pagine su un sito web e a pubblicizzare il sito sui tanto deprecati social. Compro un abbonamento per un dominio e supporto word press, e costruisco il sito www.lascienzainutile.it. L’idea è pubblicare tutto il libro a puntate, un capitolo a settimana. Assieme a una versione corta, stile blog, e se mi riesce anche una versione video.

22 febbraio 2020. Pubblico il Capito 7, che profeticamente si intitola Quale scienza è d’avvero utile? Il giorno prima i media sono pieni del primo caso autoctono di Covid-19. Il maratoneta di Codogno. E qui entriamo nella macchina del tempo, neanche fossimo novelli Dr. Emmett Brown.

In uno, due, cinque, dieci giorni tutti (e quando dico tutti, intendo veramente TUTTI, un qualche miliardo di esseri umani, essere più essere meno), siamo trasportati in un universo parallelo. Ieri il mondo era il solito noioso, disordinato, ingiusto, rivoltante, fantastico, assurdo, comprensibile e incomprensibile mondo. Oggi il mondo è un’altra cosa. Che essendo altra, aliena, non posso quindi neanche azzardarmi a descriverla. Sarebbe come se un essere tridimensionale (tipo uno qualsiasi di noi, comuni mortali) cercasse di descrivere un oggetto quadridimensionale, o pentadimensionale. Anche il più semplice oggetto quadridimensionale sarebbe ultra-complicato da descrivere per noi comuni mortali in tre dimensioni. Così è il mondo oggi, dopo un velocissimo, si potrebbe dire istantaneo, viaggio con la più potente DeLorean che immaginazione abbia potuto concepire. Tutto quello che davamo per scontato, scolpito nella roccia, le tasse, la partita di basket di mio figlio alla quale assistere assieme ai genitori di altri scalmanati ragazzi, lo spogliatoio del nuoto sempre di mio figlio, le intemperanze del vicino guardone, il vucumpra’ che la domenica dopo pranzo si presenta immancabilmente a suonare alla porta, quando l’unico desiderio del comune mortale è quello di sprofondare su un letto o su un divano, per tentare di digerire lo sformato e la salciccia arrostita sul carbone, tutto svanisce in una nebiolina azzurrognola. Tutto svanito. La nuova realtà, il nuovo mondo non so appunto descriverlo, so solo che è diverso. Per semplicità e per evitare di usare le noiose perifrasi che ho appena usato, tipo nuova realtà, universo parallelo, mondo nuovo, lo chiamerò “Arturo”. Avrei potuto chiamarlo Priscilla, Genoveffa, Pincostrato, Ancomarzio, Cappellaiomatto. Però ho la sensazione che a differenza del viaggio di Alice il nostro sia un viaggio di sola andata. E poi Arturo mi suona meglio.

Pubblico l’8 marzo il Capitolo 8, che ancora più profeticamente è incentrato sul concetto di crescita esponenziale. Cerco di spiegare cosa significa una crescita esponenziale, cosa implica. Avevo scritto queste cose diversi mesi fa, e mai e poi mai avrei potuto pensare che questo concetto, la crescita esponenziale, sarebbe stato alla base del mondo di Arturo in cui siamo stati trasportati dalla DeLorean made in China. Ormai “esponenziale” è la parola più usata da qualche miliardo di umani. Se dovessi incontrare (metaforicamente parlando ovviamente, date le misure di contenimento sociale attive nel mondo di Arturo) il mio amico Dario, pescivendolo del paese, o il contadino Michele, da cui compro pasciuti conigli e polli ruspanti, sono sicuro che queste semplici persone potrebbero compitamente spiegarmi con esatta esattezza e dotta dottezza tutte le implicazioni della crescita esponenziale.

Decido di non scrivere e di non pubblicare più niente, almeno fino a quando la crisi non sia passata, e la DeLorean non ci abbia fatto tornare al 21 febbraio del mondo di prima. Anche perché la maggior parte delle cose che ho scritto, incluso le pagine che precedono e che seguono questo Intermezzo, le ho scritte viaggiando. In treno soprattutto, ma anche in aereo. E le ho immaginate, pensate le pagine, i concetti, mentre correvo. E non potendo più andarmene a correre per la campagna né tantomeno viaggiare nel mondo di Arturo, anche la vena creativa automaticamente si inaridisce. 

Mi ci vogliono addirittura due settimane per capire la stupidità del pensiero precedente. Il viaggio nel futuro nel mondo di Arturo non prevede un ritorno. È stato un salto più che un viaggio, è stata una transizione di fase. Un’altra transizione di fase è certamente possibile, addirittura inevitabile (come è stata inevitabile quella provocata dalla DeLorean made in China), ma la nuova transizione di fase ci sposterebbe in un altro mondo, diciamo nel mondo di Amelia. E la probabilità che il mondo di Amelia sia anche solo simile al vecchio noioso, disordinato, ingiusto, rivoltante, fantastico, assurdo, comprensibile e incomprensibile mondo di ieri è sostanzialmente zero. Chi ha letto o visto la Guida Galattica per Autostoppisti [1] sa di che parlo. Una volta che avete premuto il pulzantone rosso che attiva il motore a improbabilità infinita, dio solo sa in che cosa sarete trasformati o in che mondo trasportati. Quindi se non c’è ritorno le cose sono due, o appendo penna e pensieri al chiodo e faccio solo lo spettatore (la conferenza stampa di Borrelli alle 18 confligge con i telefilm del Tenente Colombo su TopCrime, quindi registro queste puntate e le passo a conferenza stampa finita. Eccetto quando dopo Borrelli parla Conte. Il tutto per arrivare a sentire Zero Calcare su Propaganda Live e concludere con loro serata e settimana). Oppure trovo un’altra maniera altri magic-moment per pensare e per scrivere. Mica facile. Dopo aver preso cinque kili in una settimana (l’altro mio pallino è quello della cucina, e questa per fortuna non è scomparsa nel mondo di Arturo), decido di rispolverare la vecchia Cyclette ellittica. Bisogna dire che l’idea me la ha data mio figlio ottenne. Il quale per guardare in pace i suoi video su youtube senza essere continuamente ripreso, ha poggiato l’ipad sull’ellittica e dice: vado a fare esercizio! Come negargli esercizio quando non può essere più portato a nuoto/basket/calcetto? Quindi ho provato a vedere se anche il surrogato mi fornisce un magic-moment per pensare. Alla terza seduta qualche barlume di idea si è affacciata nella mia mente. È stata una piacevole sorpresa, dopo un mese passato in stato catatonico nel mondo di Arturo.

Pensiero n. 1: Il viaggio nel mondo di Arturo è di sola andata, perché è una transizione di fase (e questo lo ho già detto, non voglio ripetermi).

Pensiero n. 2: La nuova normalità non sarà tanto normale se confrontata col mondo di ieri.

Pensiero n. 3: Durante la precedente transizione di fase una ottantina di anni fa, la differenza la fecero le intuizioni di alcuni scienziati, di alcuni imprenditori e di alcuni politici, come ho raccontato brevemente nei capitoli precedenti. Ad esempio la creazione dell’OSRD da parte di Franklin Delano Roosevelt, su suggerimento di Vannevar Bush, la creazione della National Science Foundation da parte di Harry Truman, sempre su suggerimento di Vannevar Bush, la creazione dell’ARPA, poi DARPA, e via dicendo, tutte strutture volte a massimizzare la creazione di innovazioni fondamentali. Le parole scritte da Bush nel 1945 sono quanto mai attuali: “I progressi nella guerra contro le malattie dipendono dal flusso di nuove conoscenze scientifiche”. È ovvio che la differenza nell’odierna transizione di fase la può fare la scoperta di una cura per il Covid-19 e/o un vaccino. Come si arriva a queste scoperte nel minor tempo possibile? Probabilmente queste sono vere e proprie missioni incredibili[2]. Terminavo giusto il capitolo 8 chiedendoci se l’organizzazione delle nostre Università e istituti di ricerca è tale da massimizzare le missioni incredibili. Facendo un po’ di spoileraggio alle conclusioni che avrei presentato nelle prossime settimane, il mio personale parere è che nella maggior parte dei casi l’organizzazione delle nostre Università e Istituti di ricerca non è quella ottimale per massimizzare la produzione di missioni incredibili.  E non sarà facile cambiare il DNA di quelle Università e Istituti di ricerca, che oggi non sembrano tanto favorire una risposta creativa/immediata/completa a un problema complicato. Quale è la situazione della Big Pharma non lo posso dire con precisione, non lavorando nel settore. Mi sembrano però ragionevoli i concetti presentati da Safi Bahcall, che invece lavora nel settore sanitario negli Stati Uniti, secondo il quale le organizzazioni più agili, piccole e motivate sono quelle meglio attrezzate per produrre missioni incredibili. È possibile seguire l’esempio di 80 anni fa? Creando ex-novo una organizzazione fatta apposta per risolvere in poco tempo e con grande efficienza problemi complicati? In quel caso il processo fu top-down. La decisione di un Presidente illuminato (FDR) che ha seguito il consiglio di scienziati illuminati, motivati e senza paura di mettere sul tavolo soluzioni forti, impopolari (i generali di ogni grado, genere e tipo non furono sulle prime entusiasti di vedere stra-finanziata ricerca per nuovi sistemi d’arma o di comunicazione o di intelligence da parte di pivelli civili). Il paragone con il mondo di Arturo (o con il mondo di ieri) mette paura. FDR verso The Donald. Accanto al quale si vede spesso il Dr. Anthony Fauci, direttore del National Institute of Allergy and Infectious Diseases, che rispondendo ai giornalisti che gli chiedevano dei marchiani errori di Trump durante le conferenze stampa afferma: “non posso saltare davanti al microfono e sbatterlo via, cerco invece di correggerlo per la prossima conferenza stampa[3]. Il che può ancora andare bene nel mondo di ieri, ma nel mondo di Arturo dove tutto si muove con una velocità ipersonica, potrebbe non esserci una prossima conferenza stampa.

Pensiero n. 4: Può essere efficiente un processo dal basso, o almeno da un qualche lato, per produrre le missioni incredibili che ci servono subito? Le soluzioni potrebbero assomigliare a quelle discusse nel Capitolo 6: Spazio (4.0), l’ultima frontiera. Ovvero: imprenditori illuminati, start-up innovative e i cinesi.

Pensiero n. 5: Questa in realtà non è una nuova idea. Sono diversi anni che ci giro attorno e che ne parlo anche durante le mie conferenze. Il mondo di Arturo però rende il concetto talmente chiaro che non c’è bisogno di sprecare troppo pensare o troppe parole: i virus non conoscono le frontiere. Non conoscono quelle fra Stati, ma tanto meno quelle tra le regioni o città. La risposta a una “pan”demia per definizione non può essere locale, deve essere globale. Le politiche (sanitarie, economiche, sociali) da mettere in campo contro una “pan”demia per essere efficaci devono essere condivise globalmente, non hanno senso se portate avanti da qualcuno si mentre qualcun altro non le segue. Ci sono due livelli fondamentali nella ideazione e nella applicazione delle politiche (sanitarie, economiche, sociali): il livello governativo, che deve ideare, programmare e valutare le conseguenze di queste politiche (con il supporto fondamentale della scienza), e il livello delle comunità, le famiglie, gli ospedali, i paesi, le città, che queste politiche devono poi metterle in pratica. In mezzo, soprattutto in Germania, ma anche in Italia, c’è un livello burocratico la cui funzione nel mondo di Arturo non è che sia chiarissima. La risposta al Covid-19 può essere differente in Calabria piuttosto che in Lombardia? Il distanziamento sociale a Caltanissetta è diverso da quello di Bergamo? I ventilatori polmonari e le famigerate mascherine che servono a Venezia sono differenti da quelle che servono a Bari? O di Grenoble, o di Bruxelles, o di Budapest? Quale è il senso di una politica sanitaria lucana e di una friulana? Nel mondo di Arturo aumenta l’importanza del livello governativo, e soprattutto delle comunità. Diminuisce l’importanza del livello burocratico intermedio, quello delle Regioni. Il mondo di Arturo è allo stesso tempo più globale e più locale. Il che è bizzarro ma interessante. “Io” posso fare la differenza, se me ne sto a casa, non mi infetto e non infetto nessuno. Il mio sindaco, o il Direttore del mio ospedale può fare la differenza, non solo per quello che riguarda il mio paese o il mio ospedale, ma anche per quello che riguarda l’aspetto globale. Se ci si pensa un attimo la stessa cosa si applica ad altri pericoli e quindi altre sfide globali, come quella del degradamento del nostro ambiente e della transizione ecologica. Una connessione messa in evidenza anche dal direttore dell’ESA Jan Worner[4].

Pensiero n. 6: Se il mondo di Arturo è più globale del mondo di prima ne segue che acquistano più importanza anche le istituzioni più grandi. L’Unione Europea, per quello che concerne noi Italiani, o le Nazioni Unite. Nel mondo di Arturo una politica economica per l’emergenza, e poi durante la ricostruzione, non sembra possa essere efficace se attuata solamente in Italia, piuttosto che in Spagna o in Danimarca. Una politica economica diventa efficace se è condivisa dal mercato unico, cioè da tutta l’Unione Europea. Ma quale Unione Europea? L’Unione Europea del mondo di ieri aveva un bilancio di circa 1% del PIL Europeo. Le politiche economiche per l’emergenza e la ricostruzione dovranno mobilitare somme forse 10 volte maggiori. E immaginare politiche economiche efficaci e poi attuarle non sembra facile per un organismo burocratico come la UE del mondo di ieri (tre istituzioni, l’Europarlamento, il Consiglio Europeo e la Commissione Europea, spesso in conflitto/contraddizione uno con l’altra, più la Banca Centrale Europea che è una istituzione indipendente, e quindi non sotto il controllo politico di una delle tre istituzioni che formano l’UE). Una UE che sia in grado di ideare e poi applicare una politica economica globale è certamente una cosa da inventare nel mondo di Arturo. Una istituzione probabilmente vicina a quella immaginata da Gael Giraud[5]. Quella “Con”federazione, forse pure nei sogni dei padri fondatori dell’Europa, che sia capace di gestire in maniera efficiente i beni comuni Europei, il lavoro, l’ambiente e la moneta. E che come auspica Gael Giraud possa poi guidare laTransizione Ecologica.

Pensiero n. 7: Una delle particolarità più disturbanti del mondo di ieri era il costante aumento nel tempo delle disparità sociali, almeno nella parte occidentale di questo mondo. Nel Capitolo 2 avevo mostrato come neanche l’innovazione sembrava essere capace a favorire la riduzione delle ineguaglianze verticali, a mio parere uno dei motivi per i quali nel mondo di ieri la scienza non aveva decisamente una buona pubblicità. Nel mondo di Arturo c’è il rischio che le ineguaglianze, sia quelle verticali che quelle orizzontali aumentino ulteriormente, e che esplodano in una crescita anche questa esponenziale. Ma esiste anche l’opportunità per la scienza di favorire la riduzione di queste disparità. La scoperta di una cura e/o un vaccino per il Covid-19 tenterebbe chiaramente a ridurre le ineguaglianze sia verticali che orizzontali, a patto che poi queste cure siano disponibili per tutti. Basti pensare che il pericolo di vita per le persone anziane è almeno un ordine di grandezza maggiore che per i giovani e che le persone che sono maggiormente colpite accanto agli anziani, sono gli invisibili. I precari e tutta la enorme massa di persone che vive di lavoro nero. Diversi Paesi stanno mettendo in campo misure dedicate agli invisibili. Misure come ad esempio in Italia il reddito di emergenza. L’auspicio è quello che oltre a curare l’attuale emergenza, questo reddito sia utile anche per far emergere almeno una parte degli invisibili, facendoli partecipare pienamente ed apertamente allo sviluppo della società. Questo sarebbe uno straordinario successo, che sì contribuirebbe in maniera sostanziale a diminuire le ineguaglianze.

Pensiero n. 8: Al contrario di quello che succedeva nel mondo di ieri, nel mondo di Arturo la scienza è popolare. Il problema ora per noi scienziati è quello di non dilapidare questa attestazione di fiducia. Una responsabilità aggiuntiva.


[1] Douglas Adams, Guida Galattica per gli Autostoppisti. Mondadori

[2] Safi Bahcall, Idee folli, 2019 ROI Edizioni

[3] https://www.sciencemag.org/news/2020/03/i-m-going-keep-pushing-anthony-fauci-tries-make-white-house-listen-facts-pandemic

[4] https://spacenews.com/commentary-space-and-coronavirusany-connection/

[5] Gael Giraud, Transizione Ecologica, 2015, EMI


8. Ricerche che producono avanzamenti sostanziali verso ricerche incrementali

Tutte le ricerche menzionate sono certamente utili, nel senso che hanno prodotto un avanzamento enorme nelle nostre conoscenze, aperto nuovi campi di investigazione, e, potenzialmente, alcune di loro possono provocare anche cambiamenti radicali nella società. Il problema che ci poniamo è quanta e quale scienza utile oggi si produce. Quale è il rapporto tra il numero di ricerche che producono risultati solamente incrementali, e ricerche che producono breakthrough o addirittura punti di svolta. Trovare risposte quantitative e robuste a domande di questo tipo è ovviamente molto complicato. Un argomento almeno parziale può essere fornito di nuovo dall’analisi dei cosiddetti trend storici. trend interessanti da studiare sono quelli relativi ai prodotti della ricerca e al così detto Transfer of Knowledge, cioè la capacità di trasferire i risultati della ricerca nella società. Indicatore del primo è ad esempio il numero di articoli prodotti. Un buon indicatore del secondo è il numero di brevetti accettati. Il rapporto tra le due quantità è quindi un estimatore della efficienza del trasferimento tra ricerca di base, ricerca applicata e utilizzo sociale della ricerca. La figura che segue mostra il rapporto tra articoli scientifici e brevetti in Europa, Stati Uniti e Asia. Si nota come in Europa e Stati Uniti per ogni brevetto sono necessari tra 3 e 7 articoli scientifici mentre in ASIA a quasi ogni articolo scientifico corrisponde un brevetto. I dati per la Cina sono disponibili negli archivi pubblici solo dagli anni 90, motivo per il quale la figura presenta i dati degli ultimi 30 anni. Per gli Stati Uniti i dati sono disponibili fin dall’inizio del secolo passato e utilizzando queste serie storiche si deduce che negli anni 50 il rapporto tra articoli scientifici e brevetti era tra 1 e 2, simile a quello che è oggi in Asia. L’Asia sta vivendo oggi uno sviluppo simile a quello che si è avuto negli Stati Uniti in particolare e nel mondo occidentale in generale dopo la seconda guerra mondiale negli Stati Uniti, uno sviluppo esponenziale, e anche molto ma molto veloce. Quanto durerà?

Il rapporto tra il numero di articoli scientifici pubblicati e il numero di brevetti in Europa, Stati Uniti e Asia.

Ma a prescindere dal valore assoluto dell’efficienza del trasferimento culturale, il fatto che questa sia oggi più o meno costante sia nel mondo occidentale che in Asia, significa che anche tutta la tecnologia che viene prodotta e utilizzata nella società sta vivendo una crescita esponenziale, dato che la produzione scientifica è cresciuta a livello esponenziale almeno fino a qualche anno fa, come spiegato in un capitolo precedente. Ad esempio, la quantità di dati che circola in internet cresce in maniera esponenziale, come pure il numero di persone o cose connesse nella rete. Siccome il numero di persone al mondo è dopo tutto finito (anche se in crescita esponenziale!), la nuova frontiera è connettere tra loro tutti i dispositivi di cui gli oggetti, le cose nel mondo fisico ormai sono dotati (qualcuno direbbe infestati). Si parla di trilioni di dispositivi contro solo miliardi di individui: la così detta Internet of Things (IoT). Il primo smartphone è apparso sul mercato solo una quindicina di anni fa. Un telefono cellulare Nokia o Motorola del primo decennio degli anni 2000 oggi è un oggetto di modernariato. I miei figli la prima volta che hanno visto un vecchio telefono fisso, di quelli con il rotore, non riuscivano a capire come fosse mai possibile comporre un numero su strumenti di quel tipo, senza una tastiera, una pulsantiera né meccanica ne tantomeno tattile. Tutta la tecnologia che ci pervade decisamente cresce in maniera esponenziale. Come mai? Il motivo probabilmente è legato alla generazione di continua innovazione, determinato dalla crescita esponenziale della ricerca di base. Dovesse bloccarsi la crescita della ricerca di base si bloccherebbe l’innovazione, e con questa lo sviluppo tecnologico. Il concetto è espresso in maniera acuta, nei libri di fantascienza di Cixin Liu[1]. Questo autore cinese immagina una civiltà progredita che vuole impadronirsi della Terra, distruggendo quindi il genere Umano per sostituirlo su questo pianeta fortunato. Per riuscire nello scopo escogita un sistema per bloccare lo sviluppo della ricerca di base terrestre. Invia sulla Terra delle particelle elementari, i Sofoni, in grado di confondere i risultati degli esperimenti di fisica delle particelle. Senza questi risultati non si riescono a validare o invalidare le teorie di base, come ad esempio la gravità quantistica, non si riescono a sviluppare nuove teorie, si blocca l’avanzamento della ricerca di base. Lo sviluppo tecnologico prosegue ancora, ma dopo solo qualche decennio satura, e non riesce più a progredire, non essendo alimentato da nuove scoperte fondamentali. La civiltà umana è destinata a ristagnare e a soccombere. Oggi lo sviluppo tecnologico sta ancora procedendo in maniera esponenziale in moltissimi settori. Fino a quando procederà? Il tasso di nuove scoperte di base fondamenti è tale da garantire uno sviluppo tecnologico ancora esponenziale per gli anni a venire? O abbiamo già incontrato in qualche settore il nostro Sofone?

Rispondere a queste domande non è facile. Anche un’analisi basata sui diagrammi di Kalbach non è risolutiva. Il motivo è che trend storici e diagrammi di Kalbach sono analisi a “posteriori”. Sono efficaci a inquadrare una ricerca una tecnologia, uno sviluppo un trend, ma solo dopo che si è verificato. Molte delle tecnologie e delle scoperte scientifiche che oggi valutiamo come “game changer” o disruptive, non erano nate come tali. Sono diventate game changer o disruptive solo dopo qualche tempo, molti anni in qualche caso. Una delle ragioni di questo comportamento è che molte scoperte importanti sono “serendipite”. Un ricercatore o un gruppo era impegnato in una ricerca finalizzata a un dato argomento e nel portarla avanti ha trovato qualcosa di inaspettato, di nuovo, o ha trovato un altro campo di applicazione più importante per la sua ricerca. L’esempio che facciamo sempre è la scoperta del fondo cosmico di microonde (cosmic microwave background, CMB) da parte di Penzias e Wilson dei Bell Laboratories nel 1964. Il residuo del big bang, che ha confermato lo scenario di un Universo in espansione, individuato testando un’antenna per comunicazioni alle microonde. Ricerche cominciate nell’ambito “incrementale” possono portare a scoperte “game changer” o disruptive. È vero anche il contrario. Ricerche ambiziose, cominciate per produrre un game change possono fallire, o fallire in parte. La “dinamica” nella evoluzione delle idee, è più importante del preconcetto (nel senso di idea iniziale). Quindi, se è relativamente semplice oggi capire se una data scoperta o tecnologia è incrementale o disruptive, è al contrario complicato capirlo quando si concepisce una nuova idea o si comincia una nuova ricerca.

E invece è esattamente questo che vorremo fare, avere una guida che aiuti a capire se una nuova idea o una nuova tecnologia o una nuova ricerca alla fine possa ambire a diventare disruptive o game changer. Safi Bahcall preferisce parlare di “missioni incredibili” e di “franchising”, produzioni in serie, invece che di ricerche disruptive o incrementali[2]. Le missioni incredibili di Bahcall sono idee strambe, idee folli, idee che nella maggior parte dei casi non vengono prese in considerazione. Sono “scommesse contro le convenzioni”. E sono idee che almeno nove volte su dieci falliscono. Ma la volta che invece funzionano cambiano il mondo. L’idea di Bahcall è che una struttura, una azienda o una organizzazione di ricerca, dovrebbero essere strutturate in maniera da massimizzare il numero di missioni incredibili vincenti prodotte. L’OSRD di Bush, i Bell Laboratories di Vail, DARPA, sono tutte strutture che hanno ottimizzato la produzione di missioni incredibili. Queste sono tutte organizzazioni che seguono quelle che Bahcall chiama le regole di Bush-Vail: 1) separare i creativi, i visionari, dagli esecutori, dai produttori (la Vulcanian Academy of science di Star Trek, o gli scienziati senza doveri concentrati su pensieri profondi di Flexner); 2) equilibrio dinamico tra i creativi e gli esecutori e i produttori. Gli uni devono conoscere e apprezzare le idee e le motivazioni degli altri, deve esistere un feedback costruttivo tra creativi e produttori; 3) diffondere una logica di sistema, continuare a chiedersi perché una organizzazione ha fatto una determinata scelta; 4) aumentare la massa critica. Se il rapporto tra successi e insuccessi è di 1/10, allora è necessario che si riesca a portare avanti molte missioni incredibili, per avere alla fine un numero di successi totale da garantire sopravvivenza e espansione ad una organizzazione. Se è quindi complicato capire se una specifica data ricerca può portare a una scoperta game changer, è possibile però costruire organizzazioni che massimizzano la probabilità di ottenere scoperte game changer. È credo poco contestabile che una buona frazione di scoperte importanti derivino dalle missioni incredibili di Bahcall cioè idee che vengono considerate sulle prime folli, che vengono respinte e i cui fautori sono spesso emarginati. Bahcall è interessato alle aziende, ma una domanda che mi sembra naturale porci è se l’organizzazione delle nostre università e istituti di ricerca è tale da massimizzare o minimizzare le missioni incredibili. E, più in generale, se l’attuale sbilanciamento verso big science, sia il migliore per massimizzare il numero di missioni incredibili.


Leggi tutto


[1] La trilogia di Trisolaris: Il problema dei tre corpi, La materia dell’Universo, La quarta dimensione. Cixin Liu, Mondadori

[2] Safi Bahcall, Idee Folli, 2019 ROI

7. Quale scienza è davvero utile?

In una scena cruciale del film Interstellar Murph risolve alla lavagna le equazioni che unificano relatività generale e meccanica quantistica, un po’ il Santo Graal della scienza contemporanea. Le lavagne che si possono osservare in diverse scene del film sono state scritte in dal premio Nobel per la fisica del 2017 Kip Thorne. Le equazioni e le formule rappresentate fanno riferimento alla teoria delle Stringhe, e descrivono una teoria della gravità in un numero di dimensioni maggiori di quelle a cui siamo abituati, tre dimensioni spaziali e una temporale. Thorne al pari di molti colleghi è ottimista: è inutile disperare, prima o poi ci arriveremo a risolvere le equazioni della teoria delle Stringhe e sciogliere l’enigma della gravità quantistica. E forse tra uno o due secoli scopriremo delle applicazioni utili e straordinarie della teoria delle Stringhe. Non possiamo dire oggi a cosa possano servire queste teorie astruse, come nel 1850 non poteva dire Faraday al ministro britannico a cosa mai potesse essere utile l’elettricità. Oppure no?

Lo sviluppo della teoria delle Stringhe ha occupato migliaia di fisici, certamente la maggioranza dei fisici teorici, negli ultimi quaranta anni. Uno sforzo immane, che, almeno come numero di addetti forse è confrontabile solo con il supporto dei fisici teorici al progetto Manhattan per lo sviluppo della bomba atomica o a quello che fu necessario per andare sulla Luna. Ma nonostante questo sforzo, non è chiaro oggi nemmeno se questa sia una teoria, se definiamo una teoria scientifica qualcosa che produce un insieme di equazioni che possono essere usate per produrre previsioni, o comunque delle istruzioni per spiegare quello che la teoria vuole descrivere.

Nel 2006 Lee Smolin scriveva: “la nostra comprensione delle leggi della natura ha continuato a crescere rapidamente per oltre due secoli, ma oggi, nonostante tutti i nostri sforzi di queste leggi non sappiamo con certezza più di quanto ne sapessimo negli anni 70’. Smolin indicava cinque grandi problemi nella fisica teorica che non erano ancora stati risolti: i. la gravità quantistica; ii. i fondamenti della meccanica quantistica; iii una teoria che unifichi le particelle e le forze; iv. Come sono scelti dalla natura i tanti parametri liberi del modello standard, da dove arrivano le masse delle particelle elementari; v. spiegare la materia oscura e l’energia oscura che costituiscono la gran parte (>95%) della materia/energia dell’Universo, oppure, se non esistono, spiegare come e perché la gravità si modifica su grandi scale, suggerendo la presenza di materia ed energia oscure. Tredici anni dopo la nostra comprensione di questi problemi non ha fatto grandi passi avanti. Il che porta a più di quattro i decenni senza progressi fondamentali nella fisica teorica. Che ci sia un problema sembra evidente. Le radici di questo problema potrebbero essere tante.

È arrivato il momento di affrontare una delle domande centrali che questo blog vuole discutere: quale e quanta ricerca è davvero utile? E come possiamo fare a capire, almeno in prima approssimazione quale scienza è utile e quale no? Per affrontare questo tema è comodo utilizzare uno schema mutuato da quello inventato da Jim Kalbach per rappresentare in maniera bidimensionale l’innovazione. Nell’originale, l’asse orizzontale rappresenta l’impatto sul mercato di una determinata tecnologia, e serve a misurare il grado di innovazione di nuovi prodotti. Nella mia applicazione, ho semplicemente sostituito impatto sul mercato con impatto scientifico, capacità di aprire nuovi campi. Il diagramma di Kalbach è diviso in quattro zone:

Progresso Incrementale: cambiamenti modesti nella tecnologia che mantengono un bussines (o un prodotto scientifico) competitivo.

Breaktrough: grandi avanzamenti tecnologici che però non hanno ancora prodotto un impatto analogamente forte sul mercato (o in un campo scientifico).

Game changer: un avanzamento tecnologico talmente grande da produrre un impatto radicale, tanto da trasformare il mercato (o aprire nuovi campi scientifici) e addirittura la società.

Disruptive: l’utilizzo di tecnologie che offrono prestazioni mediocri, ma che sono lo stesso in grado di trasformare il mercato (o aprire nuovi campi scientifici). Se applichiamo questo diagramma alla scienza possiamo catalogare allo stesso modo le tecnologie e le scoperte scientifiche nelle quattro zone, come nella figura che segue.

Il diagramma di Kalbach applicato alla tecnologia in Astronomia e Astrofisica

L’utilizzo del cannocchiale da parte di Galileo sicuramente è stato un punto di svolta, che non ha solo cambiato la nostra visione dell’Universo, ma anche il modo di pensare e di fare scienza, e di conseguenza anche la società.  Mutatis mutandis un ruolo analogo l’ha svolto l’Hubble Space Telescope (HST), o più recentemente gli interferometri gravitazionali Ligo e Virgo, che hanno creato un nuovo campo di investigazione, che semplicemente prima non c’era: l’astrofisica multi-messaggera. Un esempio di tecnologie breakthrough è la così detta ottica adattiva (AO), sistemi che riescono a correggere automaticamente le aberrazioni indotte dall’atmosfera terrestre nella formazione di immagini di sorgenti celesti per produrre immagini addirittura più acute di quelle prodotte da HST. Questi strumenti oggi non sono ancora di uso semplice, e quindi comune, e non hanno ancora trasformato il mercato scientifico, forse lo faranno nel prossimo decennio. Infine un esempio di tecnologie Disruptive è l’utilizzo del telescopio da 2.5m posto ad Apache Point Observatory, con cui si conduce la Sloan Digital Sky Survey. Il diametro di questo telescopio è esattamente quello dell’HST, ma il suo costo è un fattore >10.000 volte minore. Nondimeno, la produttività in termini di articoli di SDSS è maggiore di quella di tutti i telescopi esistenti, incluso HST. Una potenziale tecnologia Disruptive è quella dei Cubesat dedicati a misure scientifiche. Cubesat sono nano-satelliti del peso di qualche kg, in grado di ospitare quindi strumenti solo molto semplici. Il costo di un cubesat è però enormemente minore di quello delle sonde spaziali che oggi gli scienziati utilizzano per studiare l’Universo, e il loro tempo di sviluppo è di solo qualche anno, contro i decenni delle normali missioni spaziali Facendo un ulteriore passo, possiamo pensare di collocare nel diagramma di Kalbach anche le scoperte scientifiche, come nella figura che segue.

Il diagramma di Kalbach applicato alle scoperte scientifiche: La rivelazione diretta di onde gravitazionali da parte degli interferometri Ligo/Virgo e la scoperta degli oceani globali sotto nelle lune ghiacciate di Saturno e Giove,  in alto a destra. La visita di Rosetta alla cometa Churymov-Gerasimenko e la scoperta di molecole prebiotiche nella coda nella cometa e sulla sua superficie, in alto a sinistra. La scoperta dell’espansione accelerata dell’Universo in basso a destra.

Certamente la rivelazione diretta di onde gravitazionali e’ stato un Game Changer. Rappresenta la prima applicazione potente dell’astrofisica multimessaggera. Alle 12:41 del 17 agosto 2017 gli interferometri LIGO e Virgo hanno rivelato un potente segnale gravitazionale che è durato una decina di secondi e al quale è seguita, dopo circa 1,7 secondi, la rivelazione di un Gamma Ray Burst corto da parte dei satelliti Fermi e INTEGRAL. Quella che prima era una inferenza, una aspettazione di un modello, si era trasformata in una osservazione, abbiamo visto un GRB corto associato alla coalescenza di due stelle di neutroni, abbiamo davvero osservato lo stesso evento sia utilizzando la luce, la radiazione X e gamma, che le onde gravitazionali. La regione di cielo da cui i segnali si originavano è stata vincolata con una accuratezza molto migliore di quella dei primi eventi gravitazionali, sia grazie alla presenza di un terzo interferometro gravitazionale in funzione, Virgo, vicino Pisa, sia incrociando il box di errore di LIGO/Virgo con quelli di Fermi e INTEGRAL. Poi, l’ampiezza del segnale gravitazionale è proporzionale sia alle masse degli oggetti in gioco che alla distanza dell’evento. Il caso di 17 agosto 2017 è stato particolarmente fortunato, perché’ la distanza è risultata particolarmente piccola, solo una quarantina di Mpc. Fino a questa distanza nei 30 gradi quadri del box di errore combinato sono presenti solo una cinquantina di galassie. È stato quindi relativamente facile osservarle tutte per vedere se per caso in qualcuna si fosse attivata una sorgente transiente in luce ottica. E in effetti una nuova sorgente ottica è stata trovata subito nei dintorni della galassia NGC4993.  Questa sorgente è stata osservata da una flotta imponente di telescopi sia a terra che nello spazio, in tutto più di 70 telescopi, sensibili alla luce dalle radio onde alla luce ottica, ai raggi X. La nuova sorgente ottica come prevedevano i modelli era una così detta kilonova, alimentata dal decadimento radioattivo dei nuclei pesanti sintetizzati nella regione subito esterna alla coalescenza delle stelle di neutroni. Queste stelle sono composte come il nome suggerisce da materia ad altissima densità composta per lo più da neutroni e nuclei di metalli pesanti come il ferro. La maggior parte della materia che costituiva le due stelle di neutroni coalesce a formare un buco nero, ma una frazione rimane all’esterno dell’orizzonte degli eventi, in strutture come dischi di accrescimento e venti. A causa dell’altissima densità neutronica in queste strutture, è probabile che nuclei pesanti catturino neutroni, e diventino instabili per decadimento radioattivo. La radiazione prodotta è quella che è stata osservata in ottico e nel vicino infrarosso. In questi venti vengono quindi sintetizzati elementi pesanti in maniera efficiente. Si pensa che la maggior parte degli elementi più pesanti del ferro, tra cui l’oro, vengano in effetti sintetizzati nelle kilonovae. Da cui i titoli sui giornali, che appunto riportavano della scoperta come quella delle fabbriche cosmiche di oro e altri materiali preziosi. Di nuovo, un modello si è trasformato in una osservazione grazie alla nascente astrofisica multi-messaggera.

Nella figura in alto a sinistra è rappresentata la sonda dell’ESA Rosetta che visita la cometa Churymov-Gerasimenko. Rosetta ha effettuano moltissime osservazioni che hanno permesso scoperte fondamentali. Due delle scoperte più importanti sono stata certamente la presenza di molecole prebiotiche e di fosforo nella coda della cometa[1] e la scoperta che la cometa è completamente coperta di materiale organico[2]. Lo spettrometro di massa ROSINA, ha individuato tra gli elementi volatili la presenza di methylamina e ethylamina, due molecole prebiotiche di cui sono composti gli aminoacidi. Gli aminoacidi sono le molecole di cui sono composte le proteine, e in particolare tutte le proteine che conosciamo sulla terra sono composte da venti aminoacidi. ROSINA ha quindi identificato nella coda della cometa la presenza di Glycine, il più leggero degli aminoacidi, in forma volatile e infine, ha trovato anche molto fosforo. Il fosforo è un elemento cruciale per la chimica della vita, perché’ è presente nello scheletro del DNA e nella molecola ATP (Adenosine Tri Phosphate), che è fondamentale per la produzione di energia nelle cellule e quindi in tutti gli esseri viventi. Allo stesso tempo, ci si era resi conto che la cometa era completamente ricoperta di materiale organico. La naturale inferenza è che il suolo della cometa debba essere ricco di molecole prebiotiche, e forse anche di aminoacidi più complessi e pesanti del Glycine. E proprio scoprire molecole prebiotiche complesse era l’obiettivo principale della sonda Phillae, che staccatasi da Rosetta avrebbe dovuto posarsi gentilmente sulla cometa, ed effettuare analisi in situ. Come sappiamo la sonda è effettivamente riuscita ad “accometare” ma purtroppo non è riuscita ad ancorarsi solidamente sulla superficie, e, dopo qualche rimbalzo, è andata ad incastrarsi in un crepaccio. Il trapano, ideato e costruito in Italia dal Politecnico di Milano, che doveva perforare la superficie della cometa, ed estrarre campioni da far analizzare allo spettrometro di massa COSAC, è uscito come previsto dal suo alloggiamento, ma purtroppo non ha trovato il suolo.  E quindi non è stato possibile portare a termine questo esperimento cruciale. Oggi supponiamo, ma non sappiamo per certo, che i mattoni della vita siano presenti sulle comete, come non sappiamo se questi da questi mattoni si siano riuscite a formare strutture ancora più complesse, proteine o addirittura frammenti di RNA, in un ambiente così ostile come lo spazio. È evidente che scoprire tracce di vita nello spazio, su una cometa o altrove, sarà un Game Changer, una scoperta che avrà un impatto profondo e radicale non solo sulla scienza, ma su tutta la società. Un evento che per alcuni è scontato, non si tratta di scoprire se c’è vita altrove nello spazio, ma solo di capire fino a che punto la vita si sviluppa in ambienti cosmici. Mi piace ricordare quello che scrive il premio Nobel Christian De Duve: “I mattoni della Vita si formano naturalmente nella nostra Galassia, e probabilmente anche altrove nel cosmo. I semi chimici della vita sono Universali[3]. E ancora: “La Vita è una manifestazione obbligatoria della materia, è codificata nella trama stessa dell’Universo[4]. Rosetta e Phillae non sono riusciti, ma davvero per poco, ad innescare questa rivoluzione. Ci proverà forse nel prossimo futuro la missione  della NASA CESAR, che ha lo scopo di riportare sulla Terra campioni della superficie della cometa Churymov-Gerasimenko. La scelta della cometa non è casuale. Rosetta ha effettuato uno studio dettagliatissimo di Churymov-Gerasimenko, lasciando una vera e propria legacy in termini di immagini ad altissima risoluzione e dati sull’ambiente cometario. Questa cometa è sicuramente quella meglio conosciuta, e quindi quella che minimizza i rischi inevitabili a cui vanno incontro missioni che hanno l’ambizione di posarsi su una cometa, prendere qualche sassolino, e poi ripartire alla volta della Terra. CAESAR per ora non è stata selezionata per la realizzazione dalla NASA, ma non è detto che non lo sarà in futuro. È un vero peccato che una missione simile non sia stata immaginata dall’ESA, come il naturale proseguimento del grande successo di Rosetta, su tempi scala magari più ravvicinati.


Leggi tutto


Prossima pubblicazione: 8 marzo 2020. 8. Ricerche che producono avanzamenti sostanziali verso ricerche incrementali


[1] Kathrin Altwegg e collaboratori, 2016, Science

[2] Fabrizio Capaccioni e collaboratori, 2015, Science, 347

[3] Singularities, landmarks on the pathway of Life. Cambridge University Press 2005

[4] Phyl. Trans. Royal Soc. 2011